inference.md 2.0 KB

الاستنتاج

يتطلب نموذج Fish Audio S2 ذاكرة فيديو (VRAM) كبيرة. نوصي باستخدام وحدة معالجة رسومات (GPU) بسعة 24 جيجابايت على الأقل للاستنتاج.

تحميل الأوزان

أولاً ، تحتاج إلى تحميل أوزان النموذج:

hf download fishaudio/s2-pro --local-dir checkpoints/s2-pro

الاستنتاج عبر خط الأوامر

!!! note

إذا كنت تخطط لترك النموذج يختار نغمة الصوت عشوائيًا ، فيمكنك تخطي هذه الخطوة.

1. الحصول على رموز VQ من الصوت المرجعي

python fish_speech/models/dac/inference.py \
    -i "test.wav" \
    --checkpoint-path "checkpoints/s2-pro/codec.pth"

يجب أن تحصل على fake.npy و fake.wav.

2. توليد الرموز الدلالية (Semantic tokens) من النص:

python fish_speech/models/text2semantic/inference.py \
    --text "النص الذي تريد تحويله" \
    --prompt-text "النص المرجعي الخاص بك" \
    --prompt-tokens "fake.npy" \
    # --compile

سيقوم هذا الأمر بإنشاء ملف codes_N في دليل العمل ، حيث N هو عدد صحيح يبدأ من 0.

!!! note

قد ترغب في استخدام `--compile` لدمج نوى CUDA لاستنتاج أسرع. ومع ذلك ، نوصي باستخدام تحسين تسريع الاستنتاج sglang الخاص بنا.
بالمقابل ، إذا كنت لا تخطط لاستخدام التسريع ، يمكنك التعليق على معلمة `--compile`.

!!! info

بالنسبة لوحدات معالجة الرسومات التي لا تدعم bf16 ، قد تحتاج إلى استخدام معلمة `--half`.

3. توليد الصوت من الرموز الدلالية:

python fish_speech/models/dac/inference.py \
    -i "codes_0.npy" \

بعد ذلك ستحصل على ملف fake.wav.

استنتاج WebUI

قيد التطوير.