Jarvanen

Results 11 comments of Jarvanen

请问下你的数据量大约是多少 需要训练60轮的嘛

> > 请问下你的数据量大约是多少 需要训练60轮的嘛 > > 相关性对比,1.0好,1.5部分测试输出与prompt完全不相关;文本重复上,1.0几乎没有,1.5就有很大的概率重复; 我也遇到了同样的问题,我是14B之间的对比,1.0比1.5遵从提示词的效果要更好。 另外我加了epoch降了lr加了batchsize后,1.0遵从提示词的效果也变好了,1.5还没尝试。

一样的情况 请问下微调的参数你是怎么设置的 我用了同样的参数和数据 1.0微调没问题

我一条记录中的多个问答都是多个一问一答的格式,微调时model_len设置的1024。绝大多数数据不会超过这个长度。

2025-11-10 15:36:46,819 xinference.model.image.stable_diffusion.core 2899863 WARNING cannot accept `request_id`, will ignore it 100%|██████████████████████████████████████████| 50/50 [05:14

界面上同时传image和video时,命令中会转成list --> limit_mm_per_prompt=['{"image":2', '"video":1}']

不设置limit_mm_per_prompt时会默认{'image': 2, 'video': 2},但是实际传视频文件调用时还是会报错{'detail': "[address=0.0.0.0:44317, pid=3646002] 'video_fps'"}

xinference registrations可以看到所有默认的模型名 应该是qwen1.5-chat 然后通过size参数配大小 但是现在还没有qwen2.5 不是说已经支持了吗

> 请问解决了吗? > > > 按文档pip install vllm 0.9.0后执行报错,CUDA 12.2 降低下numpy版本