Selaa lähdekoodia

Reuse cache for different generation size

Lengyue 2 vuotta sitten
vanhempi
commit
0dafcf373d
1 muutettua tiedostoa jossa 1 lisäystä ja 1 poistoa
  1. 1 1
      tools/llama/generate.py

+ 1 - 1
tools/llama/generate.py

@@ -163,7 +163,7 @@ def decode_n_tokens(
     **sampling_kwargs,
 ):
     previous_tokens = torch.zeros(
-        (model.config.num_codebooks + 1, num_new_tokens),
+        (model.config.num_codebooks + 1, model.config.max_seq_len),
         dtype=torch.int,
         device=cur_token.device,
     )