O modelo Fish Audio S2 requer uma grande quantidade de VRAM. Recomendamos o uso de uma GPU com pelo menos 24GB para inferência.
Primeiro, você precisa baixar os pesos do modelo:
hf download fishaudio/s2-pro --local-dir checkpoints/s2-pro
!!! note
Se você planeja deixar o modelo escolher aleatoriamente um timbre de voz, pode pular esta etapa.
python fish_speech/models/dac/inference.py \
-i "test.wav" \
--checkpoint-path "checkpoints/s2-pro/codec.pth"
Você deve obter um fake.npy e um fake.wav.
python fish_speech/models/text2semantic/inference.py \
--text "O texto que você deseja converter" \
--prompt-text "Seu texto de referência" \
--prompt-tokens "fake.npy" \
# --compile
Este comando criará um arquivo codes_N no diretório de trabalho, onde N é um número inteiro começando em 0.
!!! note
Você pode querer usar `--compile` para fundir kernels CUDA para uma inferência mais rápida. No entanto, recomendamos usar nossa otimização de aceleração de inferência sglang.
Da mesma forma, se você não planeja usar aceleração, pode comentar o parâmetro `--compile`.
!!! info
Para GPUs que não suportam bf16, você pode precisar usar o parâmetro `--half`.
python fish_speech/models/dac/inference.py \
-i "codes_0.npy" \
Depois disso, você obterá um arquivo fake.wav.
Em breve.