hangzeli08
hangzeli08
it works! thankyou~
same question
请问如果我想在您的微调后的预训练节点上进行继续微调,使用lora的方式,我应该用哪个checkpoint节点,mplug-owl-llama-7b-ft 还是mplug-owl-llama-7b ?
请问解决了吗,我也遇到了loss=nan这个问题
我和他遇到了一样的问题,在你们的数据集上,loss不为nan,在自己的数据集上,loss为nan
I meet same question
Do you have solve it? Could you share your method?