Fish Speech

[English](../README.md) | **简体中文** | [Portuguese](README.pt-BR.md) | [日本語](README.ja.md) | [한국어](README.ko.md) | [العربية](README.ar.md)
Fish Audio S1 - Expressive Voice Cloning and Text-to-Speech | Product Hunt fishaudio%2Ffish-speech | Trendshift



Discord Docker QQ Channel
TTS-Arena2 Score Huggingface HuggingFace Model
> [!IMPORTANT] > **许可证声明** > 此代码库在 **Apache License** 下发布,所有模型权重在 **CC-BY-NC-SA-4.0 License** 下发布。更多详情请参考 [LICENSE](../LICENSE)。 > [!WARNING] > **法律免责声明** > 我们不对代码库的任何非法使用承担责任。请参考您当地关于 DMCA 和其他相关法律的法规。 ## FishAudio-S1 **真人级语音生成 & 声音克隆** FishAudio-S1 是由 [Fish Audio](https://fish.audio/) 开发的富有表现力的文本转语音 (TTS) 和语音克隆模型,旨在生成听起来自然、真实且情感丰富的语音——不机械、不平淡,也不局限于录音室风格的朗读。 FishAudio-S1 专注于人类真实的说话方式:带有情感、变化、停顿和意图。 ### 公告 🎉 我们很高兴地宣布,我们已将品牌重塑为 **Fish Audio** —— 推出基于 Fish-Speech 基础构建的革命性新一代高级文本转语音模型系列。 我们自豪地发布 **FishAudio-S1**(也称为 OpenAudio S1)作为该系列的第一个模型,在质量、性能和功能方面都有显著改进。 FishAudio-S1 提供两个版本:**FishAudio-S1** 和 **FishAudio-S1-mini**。两个模型现在都可以在 [Fish Audio Playground](https://fish.audio)(**FishAudio-S1**)和 [Hugging Face](https://huggingface.co/fishaudio/openaudio-s1-mini)(**FishAudio-S1-mini**)上使用。 请访问 [Fish Audio 网站](https://fish.audio/) 获取实时 playground 和技术报告。 ### 模型版本 | 模型 | 大小 | 可用性 | 描述 | |------|------|-------------|-------------| | FishAudio-S1 | 4B 参数 | [fish.audio](https://fish.audio/) | 功能齐全的旗舰模型,具有最高质量和稳定性 | | FishAudio-S1-mini | 0.5B 参数 | [huggingface](https://huggingface.co/spaces/fishaudio/openaudio-s1-mini) | 开源精简模型,具有核心功能 | S1 和 S1-mini 都集成了在线人类反馈强化学习(RLHF)。 ### 开始使用 这里是 Fish Speech 的官方文档,按照说明轻松开始使用。 - [安装](https://speech.fish.audio/zh/install/) - [微调](https://speech.fish.audio/zh/finetune/) - [推理](https://speech.fish.audio/zh/inference/) - [示例](https://speech.fish.audio/samples/) ## 亮点 ### **出色的 TTS 质量** 我们使用 Seed TTS 评估指标来评估模型性能,结果显示 FishAudio S1 在英语文本上达到了 **0.008 WER** 和 **0.004 CER**,这比以前的模型显著更好。(英语,自动评估,基于 OpenAI gpt-4o-transcribe,使用 Revai/pyannote-wespeaker-voxceleb-resnet34-LM 进行说话人距离计算) | 模型 | 词错误率 (WER) | 字符错误率 (CER) | 说话人距离 | |-------|----------------------|---------------------------|------------------| | **S1** | **0.008** | **0.004** | **0.332** | | **S1-mini** | **0.011** | **0.005** | **0.380** | ### **TTS-Arena2 最佳模型** 🏆 FishAudio S1 在 [TTS-Arena2](https://arena.speechcolab.org/) 上取得了 **第一名**,这是文本转语音评估的基准:
TTS-Arena2 排名
### 真正类人的语音 FishAudio-S1 生成的语音听起来自然且具有对话感,而不是机械或过度修饰。模型捕捉了时间、重音和韵律的细微变化,避免了传统 TTS 系统常见的"录音室录音"效果。 ### **情感控制与表现力** FishAudio S1 是首个支持通过显式情感和语调标记进行**开放领域细粒度情感控制**的 TTS 模型。我们现在可以精确控制语音的情感表达: - **基础情感**: ``` (生气) (伤心) (兴奋) (惊讶) (满意) (高兴) (害怕) (担心) (沮丧) (紧张) (挫败) (郁闷) (同情) (尴尬) (厌恶) (感动) (自豪) (放松) (感激) (自信) (感兴趣) (好奇) (困惑) (快乐) ``` - **高级情感**: ``` (鄙视) (不开心) (焦虑) (歇斯底里) (冷漠) (不耐烦) (内疚) (轻蔑) (恐慌) (愤怒) (不情愿) (热衷) (不赞成) (消极) (否认) (震惊) (严肃) (讽刺) (安抚) (安慰) (真诚) (冷笑) (犹豫) (屈服) (痛苦) (尴尬) (觉得有趣) ``` - **语调标记**: ``` (急促的语调) (喊叫) (尖叫) (耳语) (柔和的语调) ``` - **特殊音频效果**: ``` (笑声) (轻笑) (抽泣) (大声哭泣) (叹息) (喘息) (呻吟) (人群笑声) (背景笑声) (观众笑声) ``` 您也可以使用 哈,哈,哈 来控制,还有许多其他情况等待您自己探索。 ### 多语言支持 FishAudio-S1 支持高质量的多语言文本转语音,无需音素或语言特定的预处理。 **支持情感标记的语言包括:** 英语、中文、日语、德语、法语、西班牙语、韩语、阿拉伯语、俄语、荷兰语、意大利语、波兰语和葡萄牙语。 语言列表持续扩展中,请访问 [Fish Audio](https://fish.audio/) 获取最新版本。 ### 快速语音克隆 FishAudio-S1 支持使用短参考样本(通常 10-30 秒)进行准确的语音克隆。模型可以捕捉音色、说话风格和情感倾向,无需额外微调即可生成逼真且一致的克隆语音。 ## **功能** 1. **零样本和少样本 TTS:** 输入 10 到 30 秒的语音样本以生成高质量的 TTS 输出。**详细指南请参见 [语音克隆最佳实践](https://docs.fish.audio/resources/best-practices/voice-cloning)。** 2. **多语言和跨语言支持:** 只需将多语言文本复制并粘贴到输入框中——无需担心语言问题。目前支持英语、日语、韩语、中文、法语、德语、阿拉伯语和西班牙语。 3. **无音素依赖:** 模型具有强大的泛化能力,不依赖音素进行 TTS。它可以处理任何语言脚本的文本。 4. **高准确性:** 在 Seed-TTS Eval 上实现约 0.4% 的低 CER(字符错误率)和约 0.8% 的 WER(词错误率)。 5. **快速:** 通过 torch compile 加速,在 Nvidia RTX 4090 GPU 上的实时因子约为 1:7。 6. **WebUI 推理:** 提供简单易用的、基于 Gradio 的 Web UI,兼容 Chrome、Firefox、Edge 等浏览器。 7. **易于部署:** 轻松设置推理服务器,原生支持 Linux 和 Windows(即将支持 macOS),最大限度地减少性能损失。 ## **媒体和演示**
### **社交媒体** X 上的最新演示 ### **交互式演示** 试用 FishAudio S1 使用 S1 Mini ### **视频展示** FishAudio S1 Video
--- ## 致谢 - [VITS2 (daniilrobnikov)](https://github.com/daniilrobnikov/vits2) - [Bert-VITS2](https://github.com/fishaudio/Bert-VITS2) - [GPT VITS](https://github.com/innnky/gpt-vits) - [MQTTS](https://github.com/b04901014/MQTTS) - [GPT Fast](https://github.com/pytorch-labs/gpt-fast) - [GPT-SoVITS](https://github.com/RVC-Boss/GPT-SoVITS) - [Qwen3](https://github.com/QwenLM/Qwen3) ## 技术报告 (V1.4) ```bibtex @misc{fish-speech-v1.4, title={Fish-Speech: Leveraging Large Language Models for Advanced Multilingual Text-to-Speech Synthesis}, author={Shijia Liao and Yuxuan Wang and Tianyu Li and Yifan Cheng and Ruoyi Zhang and Rongzhi Zhou and Yijin Xing}, year={2024}, eprint={2411.01156}, archivePrefix={arXiv}, primaryClass={cs.SD}, url={https://arxiv.org/abs/2411.01156}, } ```