尝试使用 finetune.sh 微调 seaco-paraformer ,微调后发现,每个epoch 的model.pt增大了很大,从原模型的800多M,增大到了2.44GB多,这是什么原因
🐛 Bug
尝试使用 finetune.sh 微调 seaco-paraformer ,微调后发现,每个epoch 的model.pt增大了很大,从原模型的800多M,增大到了2.44GB多,这是什么原因
To Reproduce
bash finetune.sh
Expected behavior 模型大小应保持一致
Environment OS (e.g., Linux): FunASR Version :1.1.5 PyTorch Version :2.3.1 How you installed funasr:source Python version : 3.12.3 CUDA/cuDNN version cuda: 12.2
模型精度问题,funasr-export ++model=“modelPath” ++quantize=true,可以导出量化后的onnx
您好,请问您微调热词版paraformer的数据格式是什么样的?我用paraformer长音频版的数据格式微调热词版会报错
您好,请问您微调热词版paraformer的数据格式是什么样的?我用paraformer长音频版的数据格式微调热词版会报错
数据格式都是一样的
模型精度问题,funasr-export ++model=“modelPath” ++quantize=true,可以导出量化后的onnx
感谢,但是使用时候,onnx需要结合原model里面的文件这样才可以用。
有没有什么办法可以直接读取url,而不是本地文件? from funasr_onnx import Paraformer model_dir = "/home/liuch/.cache/modelscope/hub/models/iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch" model = Paraformer(model_dir, batch_size=1)
wav_path = ['/home/liuch/.cache/modelscope/hub/models/iic/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch/example/asr_example.wav']
result = model(wav_path) print(result)