فهرست منبع

Disable flash attention 2 by default

Lengyue 2 سال پیش
والد
کامیت
2919eafd19
1فایلهای تغییر یافته به همراه1 افزوده شده و 1 حذف شده
  1. 1 1
      fish_speech/models/text2semantic/llama.py

+ 1 - 1
fish_speech/models/text2semantic/llama.py

@@ -38,7 +38,7 @@ class ModelArgs:
     codebook_padding_idx: int = 0
 
     # Use flash attention
-    use_flash_attention: bool = is_flash_attn_2_available()
+    use_flash_attention: bool = False
 
     # Gradient checkpointing
     use_gradient_checkpointing: bool = True