Historie revizí

Autor SHA1 Zpráva Datum
  spicysama ea53678446 Quantization Support (#316) před 1 rokem
  Lengyue c9209e94d9 support finetuning před 1 rokem
  spicysama 584be1d047 Adaptation to version 1.2 (#301) před 1 rokem
  Leng Yue 5e7914472f This PR brings V1.2 inference into main (#300) před 1 rokem
  Lengyue 26af12b8c6 Make AR and naive decoder configurable před 2 roky
  Lengyue 3d002fd18b Optimize amp training před 2 roky
  Lengyue 87ca8cf62e Rollback decoding před 2 roky
  Lengyue 6e67ebda73 Optimize training speed by skip unused decode před 2 roky
  Lengyue 0a1986bb14 Fix data leaking před 2 roky
  Lengyue 362a1a7116 Update dual ar generate & config před 2 roky
  Lengyue 9e1a9debfd fix bug & implement generate před 2 roky
  Lengyue 7a31b4043a Fix target rotate před 2 roky
  Lengyue 0855b454e4 Add VITS vq před 2 roky
  Lengyue cecee062c4 Remove flash attn deps as PyTorch ships in 2.2.0 před 2 roky
  Lengyue 415c78a7d4 Disable neft on eval před 2 roky
  Lengyue f5a2df2d23 Add 4 in 8 out support před 2 roky
  Lengyue 8093258065 Optimize lora & add auto dpo training před 2 roky
  Lengyue 7ac4d4b918 Add neft and save lora only před 2 roky
  Lengyue 39f6902119 Add dropout options to optimize overfitting před 2 roky
  Lengyue 2919eafd19 Disable flash attention 2 by default před 2 roky
  Lengyue dcc5e80ce2 Add flash attention & gradient checkpointing před 2 roky
  spicysama 06a35aef53 add fastapi for inference (#12) před 2 roky
  Lengyue c583555995 Add half precision inference and document před 2 roky
  Lengyue 9649873532 Update generate examples před 2 roky
  Lengyue 9ac8edef1e Support mix codebook training před 2 roky
  Lengyue 62710e34a4 Add llama inference tool chain před 2 roky
  Lengyue 4b22991668 Implement parallel decoding llama před 2 roky
  Lengyue 25fce58cf6 Add llama implementation před 2 roky