Преглед изворни кода

Disable flash attention 2 by default

Lengyue пре 2 година
родитељ
комит
2919eafd19
1 измењених фајлова са 1 додато и 1 уклоњено
  1. 1 1
      fish_speech/models/text2semantic/llama.py

+ 1 - 1
fish_speech/models/text2semantic/llama.py

@@ -38,7 +38,7 @@ class ModelArgs:
     codebook_padding_idx: int = 0
 
     # Use flash attention
-    use_flash_attention: bool = is_flash_attn_2_available()
+    use_flash_attention: bool = False
 
     # Gradient checkpointing
     use_gradient_checkpointing: bool = True