CHEFRA

Results 3 comments of CHEFRA

从modelscope下载模型文件,用llama.cpp把safetensor格式转换成gguf,然后写modelfile,在命令行创建这个模型,就可以ollama run了。 ollama: https://github.com/ollama/ollama/blob/main/docs/import.md#quantize-the-model llama. cpp: https://github.com/ggerganov/llama.cpp/blob/952d03dbead16e4dbdd1d3458486340673cc2465/README.md#run-the-quantized-model

netease-youdao/bce-reranker-base_v1 BAAI/bge-reranker-v2-m3 thx

> ``` > 这是我的,可以参考一下 > ``` > > model = AutoModel( model="iic/speech_seaco_paraformer_large_asr_nat-zh-cn-16k-common-vocab8404-pytorch", vad_model="iic/speech_fsmn_vad_zh-cn-16k-common-pytorch", punc_model="iic/punc_ct-transformer_zh-cn-common-vocab272727-pytorch", spk_model="iic/speech_campplus_sv_zh-cn_16k-common", vad_kwargs={ "max_single_segment_time": 3000, "max_end_silence_time": 100 }, ncpu=8, device=device_id ) 这个spk模型应该不能指定人数吧。 diarization那个可以指定,但是funasar确实不支持: ```python #如果有先验信息,输入实际的说话人数,会得到更准确的预测结果 result =...