Просмотр исходного кода

Disable flash attention 2 by default

Lengyue 2 лет назад
Родитель
Сommit
2919eafd19
1 измененных файлов с 1 добавлено и 1 удалено
  1. 1 1
      fish_speech/models/text2semantic/llama.py

+ 1 - 1
fish_speech/models/text2semantic/llama.py

@@ -38,7 +38,7 @@ class ModelArgs:
     codebook_padding_idx: int = 0
 
     # Use flash attention
-    use_flash_attention: bool = is_flash_attn_2_available()
+    use_flash_attention: bool = False
 
     # Gradient checkpointing
     use_gradient_checkpointing: bool = True