链载Ai

标题: 1.9K Star 微软开源TTS王炸!90分钟超长语音合成,4人对话自然切换! [打印本页]

作者: 链载Ai    时间: 1 小时前
标题: 1.9K Star 微软开源TTS王炸!90分钟超长语音合成,4人对话自然切换!

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">在文本转语音(TTS)领域,生成长篇、多说话人的高质量音频(如播客)一直是技术挑战。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">传统TTS模型如ElevenLabs或CosyVoice受限于短序列生成(1-2分钟)或1-2位说话人,难以应对复杂对话场景。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">微软最新开源的ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(66, 166, 100);">VibeVoice TTS模型,可一次生成90分钟连续语音,支持4个不同说话人,超越了以往许多模型通常仅支持1-2位说话者的限制。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">其核心创新在于使用连续语音分词器(声学和语义)在超低帧率7.5 Hz下运行。可高效地保留音频保真度,同时显著提升处理长序列的计算效率。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">提供了两个主要系列模型:

GitHub:https://github.com/microsoft/VibeVoice

亮点特性

快速入手

微软官方上线了 VibeVoice 的Demo版本,可直接在线体验。(需魔法)

Demo:https://86636c494bbddc69c7.gradio.live

有硬件条件的也可以在本地部署:

前置要求:

部署方案 1:使用 Docker(推荐)

推荐使用 NVIDIA 深度学习容器来管理 CUDA 环境:

# 启动 Docker 容器
sudodocker run --privileged --net=host --ipc=host --ulimitmemlock=-1:-1 --ulimitstack=-1:-1 --gpus all --rm-it nvcr.io/nvidia/pytorch:24.07-py3

# 如果不包含 flash attention,请手动安装
# pip install flash-attn --no-build-isolation

部署方案 2:源码安装

# 克隆仓库
gitclonehttps://github.com/microsoft/VibeVoice.git
cdVibeVoice/

# 安装软件包
pip install -e .

实际用法

用法 1:启动 Gradio 演示

apt update && apt install ffmpeg -y# for demo

# For 1.5B model
python demo/gradio_demo.py --model_path microsoft/VibeVoice-1.5B --share

# For 7B model
python demo/gradio_demo.py --model_path WestZhang/VibeVoice-Large-pt --share

该方式将启动网页服务,需要下载 VibeVoice 模型并准备好语音样本。它会自动扫描 demo/voices 目录中的语音文件,并从 demo/text_examples 加载示例脚本。

用法 2:直接从文件中进行推理

# We provide some LLM generated example scripts under demo/text_examples/ for demo
# 单说话人
python demo/inference_from_file.py --model_path WestZhang/VibeVoice-Large-pt --txt_path demo/text_examples/1p_abs.txt --speaker_names Alice

# 多说话人
python demo/inference_from_file.py --model_path WestZhang/VibeVoice-Large-pt --txt_path demo/text_examples/2p_music.txt --speaker_names Alice Yunfan

应用场景

写在最后

VibeVoice是一个前沿框架,专为从文本生成富有表现力、长篇幅、多说话人的对话音频而设计。

由微软开发的这一创新系统解决了传统文本转语音(TTS)系统中的重大挑战,特别是在可扩展性、说话人一致性以及对话中的自然轮换方面。

尤其适合需要长时连续音频的场景。对于开发者和内容创作者来说,这无疑是一个极具潜力的开源工具






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5