leidaoyu

Results 8 comments of leidaoyu

> 解决方法:modelscope上有torchscript格式的模型,可直接下载 你好大佬,这个格式的模型具体在哪里呀?我在官网没看到下载的链接诶

> pip install git+https://github.com/Kuangdd01/transformers.git@qwen25omni 暂时先用这个试一下 非常感谢!这个错解了,但是又出现一个新的错,方便看看是什么原因吗? 我的训练集json格式是: { "id": "example_1", "conversations": [ { "role": "system", "content": "你是一个可以理解中英文语音的助手,请把输入音频转换成文本" }, { "role": "user", "content": "

> 参考data/mllm_audio_demo.jdon组织一下数据格式 我把数据处理成了如下格式,但是仍然报错 { "messages": [ { "role": "system", "content": "你是一个可以理解中英文语音的助手,请把输入音频转换成文本" }, { "role": "user", "content": "" }, { "role": "assistant", "content": "asr_result" } ], "audios": [ "audio.wav" ] }...

@Kuangdd01 hello你好,更新到最新的llama factory和transformers 后,上述的问题解决了,但是报错: Traceback (most recent call last): File "", line 198, in _run_module_as_main File "", line 88, in _run_code File "C:\Users\76425\.conda\envs\torch\Scripts\llamafactory-cli.exe\__main__.py", line 7, in File "C:\Users\76425\Desktop\LLaMA-Factory\src\llamafactory\cli.py", line 115,...

训练参数为: llamafactory-cli train ` --stage sft ` --do_train True ` --model_name_or_path C://Users//76425//Desktop//LLaMA-Factory//models//Qwen2.5-Omni-3B ` --preprocessing_num_workers 16 ` --finetuning_type lora ` --template qwen2_omni ` --flash_attn auto ` --dataset_dir data ` --dataset qwen_asr...

参照这个方式设置了环境变量,但是还是报这个错,我用其他工具跑cuda都是OK的,我甚至重装了cuda,但是这个问题还是没解决,请问还有什么可以尝试的方法吗?非常感谢

补充一下,这个报错上面还有个 :\actions-runner\_work\pytorch\pytorch\pytorch\aten\src\ATen\native\cuda\IndexKernel.cu:371: block: [0,0,0], thread: [0,0,0] Assertion `totalElements