小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!


小红书智创音频技术团队 近日发布新一代对话合成模型 FireRedTTS-2。该模型聚焦现有方案的痛点:灵活性差、发音错误多、说话人切换不稳、韵律不自然等问题,通过升级离散语音编码器与文本语音合成模型全面优化合成效果。在多项主客观测评中,FireRedTTS-2 均达到行业领先水平,为多说话人对话合成提供了更优解决方案。

  • 论文标题:FireRedTTS-2: Towards Long Conversational Speech Generation for Podcast and Chatbot

  • 技术报告:https://arxiv.org/pdf/2509.02020 

  • Demo 链接:https://fireredteam.github.io/demos/firered_tts_2/ 

  • 代码链接:https://github.com/FireRedTeam/FireRedTTS2 

效果 Demo

一开口就像真人,播客生成不在话下。先来听一段 “Taylor Swift 恋爱消息” 的播报,你能分出这是真实录音还是 AI 合成吗?

答案揭晓!上方视频的声音并非真人,而是由基于数百万小时语音数据训练的 FireRedTTS-2 合成的播客音频。它对重音、情绪、停顿等细节把握到位,听感自然流畅。相比闭源的豆包,FireRedTTS-2 的播客生成自然度可与之媲美;更重要的是,它还支持豆包不具备的音色克隆能力:只需提供对话中每个发音人的一句语音样本,模型即可模仿其音色与说话习惯,自动生成后续整段对话。在开源对话生成模型中(如 MoonCast、ZipVoice-Dialogue、MOSS-TTSD),FireRedTTS-2 在多说话人音色切换的稳定性与韵律自然度方面处于行业领先,为 AI 播客等对话合成应用提供了工业级解决方案。

随着多模态大模型的快速发展,全行业对数据的需求与日俱增,尤其在语音识别与对话交互领域,训练需要大规模的多音色、跨语言音频数据。FireRedTTS-2 不仅支持随机音色生成,还开箱即用地覆盖中文、英语、日语、韩语、法语等多种语言。因此,它既能满足创新玩法的探索,也可作为高效的生产力工具,为下游任务生成高质量的对话 / 非对话音频数据。下方视频展示了不同随机音色、不同语言的生成效果。

对话合成背景

近来,多说话人对话合成被广泛应用于播客生成等下游应用场景。在实现方式上,传统方法通常先按说话人将对话切分,逐句独立合成后再拼接。这样的做法不仅繁琐,还容易导致 句间韵律断裂 ,尤其在句子衔接处尤为不自然。

尽管目前出现了一些方法可以建模整段对话,但它们往往要求输入完整对话文本,并一次性输出包含所有说话人的整段语音,难以支持逐句生成。这不仅增加了后续编辑与处理的难度,也因其不够灵活而不利于在交互式对话场景中应用。此外,这类方法的合成质量仍不稳定,常见问题包括 发音错误、句子间说话人身份混淆以及合成的语音韵律不够自然

FireRedTTS-2 系统简介

为解决当前对话合成系统存在的灵活性不足、合成质量欠佳等问题,FireRedTTS-2 升级了 TTS 系统的两大核心模块:

  • 离散语音编码器(Speech tokenizer):12.5Hz 低帧率,具有更强语义信息,且支持流式解码

  • 文本语音合成模型(Text-to-speech model):支持逐句生成,合成稳定且质量高

离散语音编码器

离散语音编码器将连续语音信号压缩为离散标签序列,便于大语言模型处理。FireRedTTS-2 采用的语音编码器以 12.5Hz 的 低帧率 输出:即 1 秒仅对应  12.5 个标签。对于对话建模,这缩短了语音序列长度、即提升了速度,又缩小了与文本序列的长度差距,降低了大语言模型的建模难度。为增强语义表达,编码器在训练时引入预训练模型提取的语义特征,并对离散标签进行语义监督,使标签携带 更丰富的语义信息 ,帮助模型更容易学会从文本到语音的映射。除此之外,它还支持 流式解码 ,可实时输出音频,便于无缝接入各类流式交互应用。

在训练策略上,离散语音编码器先在约 50 万小时的多样化语音数据上训练,以提升泛化能力;再在其中约 6 万小时的高质量语音上继续训练,优化重建音质。

文本语音合成模型

为提升对话合成的灵活性,FireRedTTS-2 采用文本 – 语音混排的格式,支持 逐句生成 ,便于后续编辑与多场景适配。混排格式将对话文本与语音组织为:“[S1] 说话人 1 文本 + 语音 [S2] 说话人 2 文本 + 语音 [S3] 说话人 3 文本 + 语音…”,其中 [S1]、[S2]、[S3] 为说话人标签,用于区分不同角色。

在模型架构上,为更 充分地利用对话上下文 ,FireRedTTS-2 采用 “双 Transformer ” 的设计:

  • 1.5B 参数的 Backbone Transformer 负责建模混排序列中语音的粗粒度信息

  • 0.2B 参数的 Decoder Transformer 补充语音中的声学细节

相比常用的 Delay pattern 方法,该架构充分利用了上下文中的文本与语音,可以生成更自然、连贯的对话语音;同时支持 低首包延迟 ,配合离散语音编码器的流式解码,实现更快起播。

FireRedTTS-2 采用两阶段训练:先在 110 万小时单句语音上预训练,夯实合成基础;再用 30 万小时对话语音继续训练,覆盖 2–4 人对话场景。由此可稳定生成高质量对话语音,准确处理说话人切换,保持上下文一致与自然韵律。面向应用场景, FireRedTTS-2 仅需少量数据即可实现微调,快速完成音色定制。

FireRedTTS-2 效果比较

为评估对话合成效果,FireRedTTS-2 与 MoonCast、ZipVoice-Dialogue、MOSS-TTSD 等其他系统在自建的中英文对话测试集上进行了比较:

  • 客观上,比较了对话合成的正确率(CER/WER)、对话间说话人保持能力(SIM)、以及与真实录音之间的差距(MCD)

  • 主观上,FireRedTTS-2 与其他系统进行了偏好打分(CMOS)

结果显示,FireRedTTS-2 在主客观指标上均为最优,显著 降低发音错误,避免说话人混淆 ,具有 更真实的韵律表现 ,为对话合成提供了更优解。

同时,FireRedTTS-2 只需约 50 小时的特定播客说话人录音即可完成音色定制,使对话合成的自然度逼近真人。在自建中文对话测试集上,我们开展了客观(CER)与主观(自然度偏好)评测:微调后 CER 仅为 1.66%;主观听评中,28% 的测例被认为比真实播客录音更自然,另有 28% 难以区分二者。总体来看,56% 的测例表明其 自然度已达到或超过真实录音

总结与展望

FireRedTTS-2 针对当前对话合成的两大痛点:无法逐句生成(灵活性差)与合成质量不稳定(发音错误、说话人切换混乱、韵律不自然),升级了两项关键模块。

  • 离散语音编码器:低帧率、语义信息丰富,缩短语音序列、降低长对话建模难度并提升稳定性;支持流式解码,适配实时场景。

  • 文本语音合成模型:采用文本 – 语音混排输入,支持逐句生成;双 Transformer 架构充分利用文本与历史语音上下文,合成更自然、连贯的对话语音;具备低首包延迟,配合编码器的流式解码实现快速起播。

从结果上看,FireRedTTS-2 在各项主客观指标上均优于 MoonCast、ZipVoice-Dialogiue、MOSS-TTSD 等系统,为对话生成提供了更优的解法。未来团队将持续优化 FireRedTTS-2,拓展支持的说话人人数与支持的语种,并解锁可控音效插入等更多玩法。

]article_adlist–>

            <!-- 非定向300*250按钮    17/09  wenjing  begin -->
            <!-- 非定向300*250按钮  end -->
        </div>



Source link

未经允许不得转载:紫竹林-程序员中文网 » 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
关于我们 免责申明 意见反馈 隐私政策
程序员中文网:公益在线网站,帮助学习者快速成长!
关注微信 技术交流
推荐文章
每天精选资源文章推送
推荐文章
随时随地碎片化学习
推荐文章
发现有趣的