cocktailpeanut
|
ec2c5b70fb
fix the bug where non-english speech will always prepend sentences with 'speak' (#652)
|
hai 1 ano |
PoTaTo
|
834b07257c
Agent inference (#650)
|
hai 1 ano |
spicysama
|
ad55185ec3
Fix cache max_seq_len (#568)
|
hai 1 ano |
刘悦
|
79072603b9
Context length reading configuration file (#540)
|
hai 1 ano |
spicysama
|
6e95d2ae3e
Fix breakdown infer (#534)
|
hai 1 ano |
spicysama
|
9cb84a6da5
Update docs etc. (#524)
|
hai 1 ano |
Lengyue
|
0cd7df0309
fix generate
|
hai 1 ano |
Lengyue
|
762562b7e6
fix generate
|
hai 1 ano |
Lengyue
|
90f22aabce
optimize decode process
|
hai 1 ano |
Lengyue
|
dad516d86d
update checkpoint path
|
hai 1 ano |
Sergey Aleynikov
|
9e2f5e6b3a
Avoid cuda-dependent code for CPU-only inference (#499)
|
hai 1 ano |
Ftps
|
cc7afe8d7b
Support inference on mps device natively (#461)
|
hai 1 ano |
Lengyue
|
1d942c8b97
Update 1.2 sft checkpoints, inference.ipynb and READMEs
|
hai 1 ano |
spicysama
|
f2c7eedf6f
Add API usage (#345)
|
hai 1 ano |
spicysama
|
ea53678446
Quantization Support (#316)
|
hai 1 ano |
Lengyue
|
ab61b60f42
optimize config & improve stability
|
hai 1 ano |
Lengyue
|
c7d9e3fcaa
fix webui & api for fs 1.2
|
hai 1 ano |
Leng Yue
|
5e7914472f
This PR brings V1.2 inference into main (#300)
|
hai 1 ano |
Lengyue
|
2e8c40f3b7
Support multiple prompts
|
hai 1 ano |
Lengyue
|
dbd3b18bf2
[Breaking] Add new text-splitter, new length based on bytes
|
hai 1 ano |
wblgers
|
1571110f01
Fix: (1).output wav cascaded when num_samples>1; (2). Wrong config name for vits_decoder (#191)
|
hai 1 ano |
duliangang
|
ba74994696
The decimal point will be split into two sentences, will be cut off from the middle. (#176)
|
hai 1 ano |
Lengyue
|
2b148f2eb8
Support vq encoding & update generate
|
hai 1 ano |
Lengyue
|
23cd0c2aa5
Optimize split text logic
|
hai 1 ano |
Lengyue
|
691b3bb937
Fix quanitzation & remove memory usage
|
hai 1 ano |
Lengyue
|
9f85e00327
Optimize text splitting
|
hai 1 ano |
Lengyue
|
813868fc87
Optimize compute graph for dynamic params
|
hai 1 ano |
Lengyue
|
03449e5526
Optimize non-GPU inference
|
hai 1 ano |
Lengyue
|
dcbe986fc9
Add queue to support streaming
|
hai 1 ano |
Lengyue
|
8a6d0d7ef7
Better handle init event
|
hai 1 ano |