返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

一款刚刚开源的TTS语音模型!25ms超低延迟支持实时对话,4种规格适配全场景!

[复制链接]
链载Ai 显示全部楼层 发表于 9 小时前 |阅读模式 打印 上一主题 下一主题

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">在 TTS 领域,情感表达的自然度和实时性一直是两大挑战。传统模型往往在延迟和语音质量间难以平衡。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">近两年 TTS 模型也发展的越来越好,也有越来越多的功能全面的 TTS 模型面世。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(66, 166, 100);">Orpheus TTS是一款刚刚发布的开源 TTS 模型,它以其接近人类的自然情感表达、超低延迟的实时输出以及强大的零样本语音克隆能力,迅速成为开源社区关注的焦点。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">不仅能生成流畅自然、充满情感的声音,还将延迟压缩到令人惊叹的 25-50 毫秒,完美适配实时对话场景。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;letter-spacing: 0.1em;color: rgb(63, 63, 63);">并且提供了从 150M 到 3B 参数的四种型号,满足不同场景的需求。支持零样本语音克隆和灵活的情感控制,可让每个人都能轻松定制专属音色。

ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;color: rgb(66, 166, 100);">核心亮点

    ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;color: rgb(63, 63, 63);" class="list-paddingleft-1">
  • ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: 15px;text-indent: -1em;display: block;margin: 0.2em 8px;color: rgb(63, 63, 63);">
    ingFang SC", "Hiragino Sans GB", "Microsoft YaHei UI", "Microsoft YaHei", Arial, sans-serif;font-size: inherit;color: rgb(66, 166, 100);">超低延迟:支持实时流式推理,延迟低至约200毫秒,通过压缩最低可至 25-50 毫秒
  • 自然情感表达:支持丰富的情感和语调控制,支持高兴、悲伤、生气、困倦等多种情绪
  • 零样本语音克隆:无需预训练,仅需提供参考音频即可克隆目标音色
  • 提供 4 种模型规模:Medium (3B)、Small (1B)、Tiny (400M)、Nano (150M)
  • 端到端语音生成:还未上线,上线即可提升语音自然度、可控性及生成速度

快速使用

Orpheus TTS 的安装和使用过程简单,支持本地部署。

如果想要直接体验该TTS工具,HF平台上也有在线Demo可体验(需魔法)。

在线Demo:

https://huggingface.co/spaces/MohamedRashad/Orpheus-TTS

本地部署步骤:

① 克隆项目

gitclonehttps://github.com/canopyai/Orpheus-TTS.git
cdOrpheus-TTS

② 安装依赖

pipinstallorpheus-speech

③ Python调用示例

from orpheus_tts import OrpheusModel
import wave
importtime

model = OrpheusModel(model_name ="canopylabs/orpheus-tts-0.1-finetune-prod")
prompt ='''Man, the way social media has, um, completely changed how we interact is just wild, right? Like, we're all connected 24/7 but somehow people feel more alone than ever. And don't even get me started on how it's messing with kids' self-esteem and mental health and whatnot.'''

start_time = time.monotonic()
syn_tokens = model.generate_speech(
prompt=prompt,
voice="tara",
)

with wave.open("output.wav","wb") as wf:
wf.setnchannels(1)
wf.setsampwidth(2)
wf.setframerate(24000)

total_frames = 0
chunk_counter = 0
foraudio_chunkinsyn_tokens:# output streaming
chunk_counter += 1
frame_count = len(audio_chunk) // (wf.getsampwidth() * wf.getnchannels())
total_frames += frame_count
wf.writeframes(audio_chunk)
duration = total_frames / wf.getframerate()

end_time = time.monotonic()
print(f"It took {end_time - start_time} seconds to generate {duration:.2f} seconds of audio")

写在最后

传统语音合成(TTS)系统面临三大核心挑战:情感表达生硬、推理延迟过高(普遍>500ms)、克隆音色需大量数据。

Orpheus TTS通过混合专家架构(MoE)与KV缓存优化,在150M到3B参数范围内实现:MOS评分达4.6、端到端延迟压至25ms、零样本语音克隆、超强情感控制。

适用于 AI 语音助手、游戏配音、有声读物、虚拟客服、智能语音交互等 多种应用,兼顾 高质量语音合成 & 实时交互体验,是当前最具潜力的开源 TTS 方案之一!

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ