Esta base de código é lançada sob a Licença Apache e todos os pesos dos modelos são lançados sob a Licença CC-BY-NC-SA-4.0. Consulte [LICENSE](../LICENSE) para mais detalhes.
Estamos animados em anunciar que mudamos nosso nome para OpenAudio, esta será uma nova série de modelos Text-to-Speech.
Demo disponível em [Fish Audio Playground](https://fish.audio).
Visite o [site OpenAudio](https://openaudio.com) para blog e relatório técnico.
## Recursos
### OpenAudio-S1 (Nova versão do Fish-Speech)
1. Este modelo possui **TODOS OS RECURSOS** que o fish-speech tinha.
2. O OpenAudio S1 suporta uma variedade de marcadores emocionais, de tom e especiais para aprimorar a síntese de fala:
(angry) (sad) (disdainful) (excited) (surprised) (satisfied) (unhappy) (anxious) (hysterical) (delighted) (scared) (worried) (indifferent) (upset) (impatient) (nervous) (guilty) (scornful) (frustrated) (depressed) (panicked) (furious) (empathetic) (embarrassed) (reluctant) (disgusted) (keen) (moved) (proud) (relaxed) (grateful) (confident) (interested) (curious) (confused) (joyful) (disapproving) (negative) (denying) (astonished) (serious) (sarcastic) (conciliative) (comforting) (sincere) (sneering) (hesitating) (yielding) (painful) (awkward) (amused)
Também suporta marcadores de tom:
(tom apressado) (gritando) (berrando) (sussurrando) (tom suave)
Há alguns marcadores especiais que são suportados:
(rindo) (dando risadinhas) (soluçando) (chorando alto) (suspirando) (ofegando) (gemendo) (multidão rindo) (riso de fundo) (audiência rindo)
Você também pode usar **Ha,ha,ha** para controlar, há muitos outros casos esperando para serem explorados por você mesmo.
3. O OpenAudio S1 inclui os seguintes tamanhos:
- **S1 (4B, proprietário):** O modelo de tamanho completo.
- **S1-mini (0.5B, código aberto):** Uma versão destilada do S1.
Tanto S1 quanto S1-mini incorporam Aprendizado por Reforço online a partir de Feedback Humano (RLHF).
4. Avaliações
**Métricas de Avaliação Seed TTS (Inglês, avaliação automática, baseada no OpenAI gpt-4o-transcribe, distância do locutor usando Revai/pyannote-wespeaker-voxceleb-resnet34-LM):**
- **S1:**
- WER (Taxa de Erro de Palavra): **0.008**
- CER (Taxa de Erro de Caractere): **0.004**
- Distância: **0.332**
- **S1-mini:**
- WER (Taxa de Erro de Palavra): **0.011**
- CER (Taxa de Erro de Caractere): **0.005**
- Distância: **0.380**
## Aviso Legal
Não assumimos qualquer responsabilidade por qualquer uso ilegal da base de código. Consulte suas leis locais sobre DMCA e outras leis relacionadas.
## Vídeos
#### A ser continuado.
## Documentos
- [Construir Ambiente](en/install.md)
- [Inferência](en/inference.md)
Deve-se notar que o modelo atual **NÃO SUPORTA AJUSTE FINO**.
## Créditos
- [VITS2 (daniilrobnikov)](https://github.com/daniilrobnikov/vits2)
- [Bert-VITS2](https://github.com/fishaudio/Bert-VITS2)
- [GPT VITS](https://github.com/innnky/gpt-vits)
- [MQTTS](https://github.com/b04901014/MQTTS)
- [GPT Fast](https://github.com/pytorch-labs/gpt-fast)
- [GPT-SoVITS](https://github.com/RVC-Boss/GPT-SoVITS)
## Relatório Técnico (V1.4)
```bibtex
@misc{fish-speech-v1.4,
title={Fish-Speech: Leveraging Large Language Models for Advanced Multilingual Text-to-Speech Synthesis},
author={Shijia Liao and Yuxuan Wang and Tianyu Li and Yifan Cheng and Ruoyi Zhang and Rongzhi Zhou and Yijin Xing},
year={2024},
eprint={2411.01156},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2411.01156},
}
```