[!IMPORTANT] 라이선스 고지 이 코드베이스 및 관련 모델 가중치는 FISH AUDIO RESEARCH LICENSE 에 따라 배포됩니다. 자세한 내용은 LICENSE를 참조하십시오.
[!WARNING] 법적 면책 조항 당사는 코드베이스의 불법적인 사용에 대해 어떠한 책임도 지지 않습니다. 해당 지역의 DMCA 및 기타 관련 법률을 참조하십시오.
Fish Audio S2의 공식 문서입니다. 지침에 따라 쉽게 시작하십시오.
[!IMPORTANT] SGLang 서버를 사용하려면 SGLang-Omni README를 참조하십시오.
먼저 https://speech.fish.audio/ko/install/ 을 읽고 문서에 따라 Fish Audio S2를 설치 및 구성하십시오.
음성 생성의 경계를 재정의하는 업계 최고의 다국어 텍스트 음성 변환(TTS) 시스템.
Fish Audio S2 Pro는 Fish Audio에서 개발한 최첨단 멀티모달 모델입니다. 전 세계 80개 이상의 언어를 아우르는 1,000만 시간 이상의 방대한 오디오 데이터로 학습되었습니다. 혁신적인 이중 자기회귀(Dual-AR) 아키텍처와 강화 학습(RL) 정렬 기술을 통해 S2 Pro는 극도로 자연스럽고 사실적이며 감정이 풍부한 음성을 생성하며, 오픈 소스와 클ローズ드 소스 경쟁 모두에서 선두를 달리고 있습니다.
S2 Pro의 핵심 강점은 자연어 태그(예: [whisper], [excited], [angry])를 통해 운율과 감정을 하위 단어 수준(Sub-word Level)에서 매우 세밀하게 인라인 제어할 수 있다는 점입니다. 또한 다중 화자 생성 및 긴 컨텍스트의 다중 턴 대화 생성을 기본적으로 지원합니다.
지금 바로 Fish Audio 공식 웹사이트에서 온라인 데모를 체험하거나, 기술 보고서 및 블로그 게시물을 통해 자세히 알아보십시오.
| 모델 | 크기 | 가용성 | 설명 |
|---|---|---|---|
| S2-Pro | 4B 파라미터 | HuggingFace | 최고의 품질과 안정성을 갖춘 모든 기능을 갖춘 플래그십 모델 |
모델에 대한 자세한 내용은 기술 보고서를 참조하십시오.
| 벤치마크 | Fish Audio S2 |
|---|---|
| Seed-TTS Eval — WER(중국어) | 0.54% (전체 최고) |
| Seed-TTS Eval — WER(영어) | 0.99% (전체 최고) |
| Audio Turing Test (지침 포함) | 0.515 후험 평균 |
| EmergentTTS-Eval — 승률 | 81.88% (전체 최고) |
| Fish Instruction Benchmark — TAR | 93.3% |
| Fish Instruction Benchmark — 품질 | 4.51 / 5.0 |
| 다국어 (MiniMax Testset) — 최고 WER | 24개 언어 중 11개 |
| 다국어 (MiniMax Testset) — 최고 SIM | 24개 언어 중 17개 |
Seed-TTS Eval에서 S2는 클ローズ드 소스 시스템을 포함한 모든 평가 모델 중 가장 낮은 WER을 달성했습니다: Qwen3-TTS (0.77/1.24), MiniMax Speech-02 (0.99/1.90), Seed-TTS (1.12/2.25). Audio Turing Test에서 S2의 0.515는 Seed-TTS (0.417) 대비 24%, MiniMax-Speech (0.387) 대비 33% 향상된 수치입니다. EmergentTTS-Eval에서 S2는 부차 언어학(91.61% 승률), 의문문(84.41%), 구문 복잡성(83.39%) 등의 측면에서 특히 두드러진 성과를 보였습니다.
S2 Pro는 음성에 전례 없는 "영혼"을 부여합니다. 간단한 [tag] 구문을 사용하여 텍스트의 어느 위치에나 감정 지침을 정확하게 삽입할 수 있습니다.
[whisper in small voice] (작은 목소리로 속삭임), [professional broadcast tone] (전문 방송 톤), [pitch up] (음높이 높임) 등을 시도해 보십시오.[pause] [emphasis] [laughing] [inhale] [chuckle] [tsk] [singing] [excited] [laughing tone] [interrupting] [chuckling] [excited tone] [volume up] [echo] [angry] [low volume] [sigh] [low voice] [whisper] [screaming] [shouting] [loud] [surprised] [short pause] [exhale] [delight] [panting] [audience laughter] [with strong accent] [volume down] [clearing throat] [sad] [moaning] [shocked]S2 Pro는 Decoder-only Transformer와 RVQ 오디오 코덱(10개 코드북, 약 21Hz 프레임 속도)으로 구성된 마스터-슬레이브 방식의 Dual-AR 아키텍처를 채택했습니다.
이러한 비대칭 설계는 오디오의 최고 충실도를 보장하는 동시에 추론 속도를 대폭 향상시킵니다.
S2 Pro는 사후 학습 정렬을 위해 Group Relative Policy Optimization (GRPO) 기술을 채택했습니다. 데이터 정제 및 주석 처리에 사용된 것과 동일한 모델 세트를 보상 모델(Reward Model)로 직접 사용함으로써 사전 학습 데이터 분포와 사후 학습 목표 간의 불일치 문제를 완벽하게 해결했습니다.
Dual-AR 아키텍처는 표준 LLM 구조와 동형이므로 S2 Pro는 Continuous Batching, Paged KV Cache, CUDA Graph 및 RadixAttention 기반 Prefix Caching을 포함한 SGLang의 모든 추론 가속 기능을 기본적으로 지원합니다.
단일 NVIDIA H200 GPU 성능 지표:
S2 Pro는 음소나 특정 언어 처리가 필요 없는 고품질 합성을 80개 이상의 언어에서 지원합니다.
Fish Audio S2를 사용하면 사용자가 여러 화자가 포함된 참조 오디오를 업로드할 수 있으며, 모델은 <|speaker:i|> 토큰을 통해 각 화자의 특징을 처리합니다. 이후 화자 ID 토큰을 사용하여 모델의 표현을 제어함으로써 한 번의 생성에 여러 화자를 포함할 수 있습니다. 더 이상 화자마다 별도의 참조 오디오를 업로드하고 음성을 생성할 필요가 없습니다.
모델 컨텍스트 확장에 힘입어 이제 이전 정보의 도움을 받아 후속 생성 내용의 표현력을 높이고 콘텐츠의 자연스러움을 향상시킬 수 있습니다.
Fish Audio S2는 짧은 참조 샘플(보통 10-30초)을 사용한 정확한 음성 복제를 지원합니다. 모델은 음색, 말하기 스타일 및 감정적 경향을 포착하여 추가적인 미세 조정 없이도 사실적이고 일관된 복제 음성을 생성합니다. SGLang 서버 사용에 대해서는 SGLang-Omni README를 참조하십시오.
@misc{fish-speech-v1.4,
title={Fish-Speech: Leveraging Large Language Models for Advanced Multilingual Text-to-Speech Synthesis},
author={Shijia Liao and Yuxuan Wang and Tianyu Li and Yifan Cheng and Ruoyi Zhang and Rongzhi Zhou and Yijin Xing},
year={2024},
eprint={2411.01156},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2411.01156},
}
@misc{liao2026fishaudios2technical,
title={Fish Audio S2 Technical Report},
author={Shijia Liao and Yuxuan Wang and Songting Liu and Yifan Cheng and Ruoyi Zhang and Tianyu Li and Shidong Li and Yisheng Zheng and Xingwei Liu and Qingzheng Wang and Zhizhuo Zhou and Jiahua Liu and Xin Chen and Dawei Han},
year={2026},
eprint={2603.08823},
archivePrefix={arXiv},
primaryClass={cs.SD},
url={https://arxiv.org/abs/2603.08823},
}