finetune.sh 915 B

12345678910111213141516171819202122232425262728293031
  1. export NCCL_P2P_DISABLE=1
  2. hostfile=""
  3. deepspeed --hostfile=$hostfile tools/tts/fine-tune.py \
  4. --deepspeed tools/tts/ds_config.json \
  5. --report_to "tensorboard" \
  6. --data_path "fishaudio/libritts-r-encodec" \
  7. --model_name_or_path "checkpoints/llama2-tiny-init" \
  8. --output_dir "results" \
  9. --model_max_length 4096 \
  10. --max_steps 500000 \
  11. --per_device_train_batch_size 32 \
  12. --gradient_accumulation_steps 1 \
  13. --save_strategy steps \
  14. --save_steps 10000 \
  15. --evaluation_strategy steps \
  16. --eval_steps 10000 \
  17. --learning_rate 1e-3 \
  18. --lr_scheduler_type cosine \
  19. --adam_beta1 0.9 \
  20. --adam_beta2 0.98 \
  21. --adam_epsilon 1e-8 \
  22. --max_grad_norm 1.0 \
  23. --weight_decay 1e-4 \
  24. --warmup_steps 10000 \
  25. --logging_steps 1 \
  26. --gradient_checkpointing True \
  27. --remove_unused_columns False \
  28. --use_lora False \
  29. --bf16 True \
  30. --tf32 True