Просмотр исходного кода

[docs]Fix bugs in Chinese docs and add translated docs of agent for other language. (#656)

* [docs]Add docs of Fish Agent.

* [docs]:Fix some issues

* [pre-commit.ci] auto fixes from pre-commit.com hooks

for more information, see https://pre-commit.ci

* [docs]Add Chinese docs for Fish Agent

* [docs]fix some issue

* [docs]fix the bug that chinese page display wrong

* [docs]Fix bugs in Chinese docs and add translated docs of agent for other language.

* [pre-commit.ci] auto fixes from pre-commit.com hooks

for more information, see https://pre-commit.ci

---------

Co-authored-by: pre-commit-ci[bot] <66853113+pre-commit-ci[bot]@users.noreply.github.com>
Whale and Dolphin 1 год назад
Родитель
Сommit
172bcc5f35
5 измененных файлов с 244 добавлено и 2 удалено
  1. 80 0
      docs/ja/start_agent.md
  2. 80 0
      docs/ko/start_agent.md
  3. 80 0
      docs/pt/start_agent.md
  4. 1 1
      docs/zh/start_agent.md
  5. 3 1
      mkdocs.yml

+ 80 - 0
docs/ja/start_agent.md

@@ -0,0 +1,80 @@
+# エージェントの開始
+
+!!! note
+    もしあなたがネイティブ・スピーカーで、翻訳に問題があるとお感じでしたら、issueかpull requestをお送りください!
+
+## 要件
+
+- GPUメモリ: 最低8GB(量子化使用時)、16GB以上推奨
+- ディスク使用量: 10GB
+
+## モデルのダウンロード
+
+以下のコマンドでモデルを取得できます:
+
+```bash
+huggingface-cli download fishaudio/fish-agent-v0.1-3b --local-dir checkpoints/fish-agent-v0.1-3b
+```
+
+これらを'checkpoints'フォルダに配置してください。
+
+また、[inference](inference.md)の手順に従ってfish-speechモデルもダウンロードする必要があります。
+
+checkpointsには2つのフォルダが必要です。
+
+`checkpoints/fish-speech-1.4`と`checkpoints/fish-agent-v0.1-3b`です。
+
+## 環境準備
+
+すでにFish-speechをお持ちの場合は、以下の指示を追加するだけで直接使用できます:
+```bash
+pip install cachetools
+```
+
+!!! note
+    コンパイルにはPythonバージョン3.12未満を使用してください。
+
+お持ちでない場合は、以下のコマンドで環境を構築してください:
+
+```bash
+sudo apt-get install portaudio19-dev
+
+pip install -e .[stable]
+```
+
+## エージェントデモの起動
+
+fish-agentを構築するには、メインフォルダで以下のコマンドを使用してください:
+
+```bash
+python -m tools.api --llama-checkpoint-path checkpoints/fish-agent-v0.1-3b/ --mode agent --compile
+```
+
+`--compile`引数はPython < 3.12でのみサポートされており、トークン生成を大幅に高速化します。
+
+一度にコンパイルは行われません(覚えておいてください)。
+
+次に、別のターミナルを開いて以下のコマンドを使用します:
+
+```bash
+python -m tools.e2e_webui
+```
+
+これにより、デバイス上にGradio WebUIが作成されます。
+
+モデルを初めて使用する際は、(`--compile`がTrueの場合)しばらくコンパイルが行われますので、お待ちください。
+
+## Gradio Webui
+<p align="center">
+   <img src="../../assets/figs/agent_gradio.png" width="75%">
+</p>
+
+お楽しみください!
+
+## パフォーマンス
+
+テストでは、4060搭載のラップトップではかろうじて動作しますが、非常に厳しい状態で、約8トークン/秒程度です。4090ではコンパイル時に約95トークン/秒で、これが推奨環境です。
+
+# エージェントについて
+
+このデモは初期アルファテストバージョンで、推論速度の最適化が必要で、修正を待つバグが多数あります。バグを発見した場合や修正したい場合は、issueやプルリクエストをいただけると大変嬉しく思います。

+ 80 - 0
docs/ko/start_agent.md

@@ -0,0 +1,80 @@
+# 에이전트 시작하기
+
+!!! note
+    전체 문서는 claude3.5 Sonnet에 의해 번역되었으며, 원어민인 경우 번역에 문제가 있다고 생각되면 이슈나 풀 리퀘스트를 보내주셔서 대단히 감사합니다!
+
+## 요구사항
+
+- GPU 메모리: 최소 8GB(양자화 사용 시), 16GB 이상 권장
+- 디스크 사용량: 10GB
+
+## 모델 다운로드
+
+다음 명령어로 모델을 받을 수 있습니다:
+
+```bash
+huggingface-cli download fishaudio/fish-agent-v0.1-3b --local-dir checkpoints/fish-agent-v0.1-3b
+```
+
+'checkpoints' 폴더에 파일들을 넣으세요.
+
+또한 [inference](inference.md)에 설명된 대로 fish-speech 모델도 다운로드해야 합니다.
+
+checkpoints에는 2개의 폴더가 있어야 합니다.
+
+`checkpoints/fish-speech-1.4`와 `checkpoints/fish-agent-v0.1-3b`입니다.
+
+## 환경 준비
+
+이미 Fish-speech가 있다면 다음 명령어를 추가하여 바로 사용할 수 있습니다:
+```bash
+pip install cachetools
+```
+
+!!! 참고
+    컴파일을 위해 Python 3.12 미만 버전을 사용해 주세요.
+
+없다면 아래 명령어를 사용하여 환경을 구축하세요:
+
+```bash
+sudo apt-get install portaudio19-dev
+
+pip install -e .[stable]
+```
+
+## 에이전트 데모 실행
+
+fish-agent를 구축하려면 메인 폴더에서 아래 명령어를 사용하세요:
+
+```bash
+python -m tools.api --llama-checkpoint-path checkpoints/fish-agent-v0.1-3b/ --mode agent --compile
+```
+
+`--compile` 인자는 Python < 3.12에서만 지원되며, 토큰 생성 속도를 크게 향상시킵니다.
+
+한 번에 컴파일되지 않습니다(기억해 두세요).
+
+그런 다음 다른 터미널을 열고 다음 명령어를 사용하세요:
+
+```bash
+python -m tools.e2e_webui
+```
+
+이렇게 하면 기기에 Gradio WebUI가 생성됩니다.
+
+모델을 처음 사용할 때는 (`--compile`이 True인 경우) 잠시 컴파일이 진행되므로 기다려 주세요.
+
+## Gradio Webui
+<p align="center">
+   <img src="../../assets/figs/agent_gradio.png" width="75%">
+</p>
+
+즐거운 시간 되세요!
+
+## 성능
+
+테스트 결과, 4060 노트북은 겨우 실행되며 매우 부하가 큰 상태로, 초당 약 8토큰 정도만 처리합니다. 4090은 컴파일 상태에서 초당 약 95토큰을 처리하며, 이것이 저희가 권장하는 사양입니다.
+
+# 에이전트 소개
+
+이 데모는 초기 알파 테스트 버전으로, 추론 속도 최적화가 필요하며 수정해야 할 버그가 많이 있습니다. 버그를 발견하거나 수정하고 싶으시다면 이슈나 풀 리퀘스트를 보내주시면 매우 감사하겠습니다.

+ 80 - 0
docs/pt/start_agent.md

@@ -0,0 +1,80 @@
+# Iniciar Agente
+
+!!! note
+    Todo o documento foi traduzido por claude3.5 Sonnet, se você for um falante nativo e achar a tradução problemática, muito obrigado por nos enviar um problema ou uma solicitação pull!
+
+## Requisitos
+
+- Memória GPU: No mínimo 8GB (com quantização), 16GB ou mais é recomendado.
+- Uso de disco: 10GB
+
+## Download do Modelo
+
+Você pode obter o modelo através de:
+
+```bash
+huggingface-cli download fishaudio/fish-agent-v0.1-3b --local-dir checkpoints/fish-agent-v0.1-3b
+```
+
+Coloque-os na pasta 'checkpoints'.
+
+Você também precisará do modelo fish-speech que pode ser baixado seguindo as instruções em [inference](inference.md).
+
+Então haverá 2 pastas em checkpoints.
+
+O `checkpoints/fish-speech-1.4` e `checkpoints/fish-agent-v0.1-3b`
+
+## Preparação do Ambiente
+
+Se você já tem o Fish-speech, pode usar diretamente adicionando a seguinte instrução:
+```bash
+pip install cachetools
+```
+
+!!! nota
+    Por favor, use a versão Python abaixo de 3.12 para compilação.
+
+Se você não tem, use os comandos abaixo para construir seu ambiente:
+
+```bash
+sudo apt-get install portaudio19-dev
+
+pip install -e .[stable]
+```
+
+## Iniciar a Demo do Agente
+
+Para construir o fish-agent, use o comando abaixo na pasta principal:
+
+```bash
+python -m tools.api --llama-checkpoint-path checkpoints/fish-agent-v0.1-3b/ --mode agent --compile
+```
+
+O argumento `--compile` só suporta Python < 3.12, o que aumentará muito a velocidade de geração de tokens.
+
+Não será compilado de uma vez (lembre-se).
+
+Então abra outro terminal e use o comando:
+
+```bash
+python -m tools.e2e_webui
+```
+
+Isso criará uma WebUI Gradio no dispositivo.
+
+Quando você usar o modelo pela primeira vez, ele irá compilar (se `--compile` estiver True) por um curto período, então aguarde com paciência.
+
+## Gradio Webui
+<p align="center">
+   <img src="../../assets/figs/agent_gradio.png" width="75%">
+</p>
+
+Divirta-se!
+
+## Desempenho
+
+Em nossos testes, um laptop com 4060 mal consegue rodar, ficando muito sobrecarregado, gerando apenas cerca de 8 tokens/s. A 4090 gera cerca de 95 tokens/s com compilação, que é o que recomendamos.
+
+# Sobre o Agente
+
+A demo é uma versão alpha inicial de teste, a velocidade de inferência precisa ser otimizada, e há muitos bugs aguardando correção. Se você encontrou um bug ou quer corrigi-lo, ficaremos muito felizes em receber uma issue ou um pull request.

+ 1 - 1
docs/zh/start_agent.md

@@ -69,7 +69,7 @@ python -m tools.e2e_webui
 ## Gradio Webui
 
 <p align="center">
-   <img src="../assets/figs/agent_gradio.png" width="75%">
+   <img src="../../assets/figs/agent_gradio.png" width="75%">
 </p>
 
 玩得开心!

+ 3 - 1
mkdocs.yml

@@ -86,7 +86,7 @@ plugins:
             - 介绍: zh/index.md
             - 微调: zh/finetune.md
             - 推理: zh/inference.md
-            - 启动Agent: zh/启动Agent.md
+            - 启动Agent: zh/start_agent.md
             - 例子: zh/samples.md
         - locale: ja
           name: 日本語
@@ -95,6 +95,7 @@ plugins:
             - Fish Speech の紹介: ja/index.md
             - 微調整: ja/finetune.md
             - 推論: ja/inference.md
+            - スタートエージェント: ja/start_agent.md
             - サンプル: ja/samples.md
         - locale: pt
           name: Português (Brasil)
@@ -103,6 +104,7 @@ plugins:
             - Introdução: pt/index.md
             - Ajuste Fino: pt/finetune.md
             - Inferência: pt/inference.md
+            - Agente inicial: pt/start_agent.md
             - Amostras: pt/samples.md
         - locale: ko
           name: 한국어