mayurou
mayurou
我也遇到这个问题了,两年了还没有解决办法吗
请问是否计划开放训练呢?
> > 我把原生模型下面的config.json等全都拷贝到新生成的bin文件同目录下了,将pytorch_model.bin.index 将所有的模型名称改成了pytorch_model.bin,启动moss_inferrance.py报错TypeError: expected str, bytes or os.PathLike object, not NoneType 请问有人成功吧微调后的模型部署推理了吗?应该如何做呢?另,求一个官方微信群的邀请~ > > 你的.bin文件怎么生成的啊? 我只生成了.pt文件 运行微调后产出的zero_to_fp32.py文件,命令是python zero_to_fp32.py 参数一:【pt文件所在目录】 参数二:【想要输出合成的文件路径checkpoint/pytorch_model.bin】,例如python zero_to_fp32.py ./ checkpoint/pytorch_model.bin 但保存完bin文件之后,我就不知道怎么操作才能推理了。。
> > > > 万分感谢,同卡在fp32的60GB大文件了 > > 是不是需要先转换成fp16 half ? 我是直接把60g大文件load进一张显卡去推理了,load的时候。half().cuda() 我的显卡有80g目前还够用
应用我目前的实验数据,moss这样子微调后准确率和chatgml6B差不太多,moss85%,chatgml86%,远不及Chinese-Alpaca-Plus-13B 91%
同问,我也不懂,sft_data数据集应该构建成什么样子的,描述的很模糊
> latency 我理解python的线程并发并不是真的并发,不如多进程并发
有人有成功提升速度的案例吗,求教~
> > 目前感觉ref_eyeblink应该不会影响head pose > > 这个是最终生成的视频,人物表情和头部动作均有变化 > >  > > 000.12_enhanced.mp4 加入眨眼和头部参考视频之后,影响了嘴形,不加参考视频嘴形还可以,加了之后就嘴形就对不上了
> 眼睛没有完全打开,多数情况下半开,感觉很不自然 这种情况加入更合适的参考视频可以解决