文档正在编写中
此代码库根据 BSD-3-Clause 许可证发布,所有模型根据 CC-BY-NC-SA-4.0 许可证发布。请参阅 LICENSE 了解更多细节。
我们不对代码库的任何非法使用承担任何责任。请参阅您当地关于DMCA和其他相关法律的法律。
因此,我们强烈建议Windows用户使用WSL2或docker来运行代码库。
# 基本环境设置
conda create -n fish-speech python=3.10
conda activate fish-speech
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia
# 安装 flash-attn(适用于linux)
pip3 install ninja && MAX_JOBS=4 pip3 install flash-attn --no-build-isolation
# 安装 fish-speech
pip3 install -e .
从我们的 huggingface 仓库下载所需的 vqgan 和 text2semantic 模型。
TODO
python tools/vqgan/inference.py -i codes_0.wav
你应该能得到一个 fake.npy 文件。
python tools/llama/generate.py \
--text "要转换的文本" \
--prompt-string "你的参考文本" \
--prompt-tokens "fake.npy" \
--checkpoint-path results/text2semantic_400m_finetune/step_000002000.pth \
--num-samples 2 \
--compile
您可能希望使用 --compile 来融合 cuda 内核以实现更快的推理(~25 个 token/秒 -> ~300 个 token/秒)。
python tools/vqgan/inference.py -i codes_0.npy
由于加载和洗牌数据集非常缓慢且占用内存,因此我们使用 rust 服务器来加载和洗牌数据集。该服务器基于 GRPC,可以通过以下方式安装
cd data_server
cargo build --release