Yadong Li

Results 2 issues of Yadong Li

> 我们工作的努力,便是将LLAMA-7B模型在Chinese-Alpaca数据集上利用Lora进行微调,得到Lora权值文件,将该权值文件镶嵌进ChatGLM预训练模型中。 不太理解不同的模型(LLAMA-7B和chatGLM)是如何实现lora融合的,能详细介绍一下吗? 我的理解:将LLAMA-7B模型在Chinese-Alpaca数据集上利用Lora进行微调,得到Lora权值文件,只是适用于LLAMA-7B模型的,不太理解这个lora权重,是如何融合到chatGLM里面的。 谢谢!

感谢开源,试了一下13b的llama2,推理能力和阅读理解的能力,比同尺寸的模型好不少! 请教一下作者,能有这么好的效果,是有什么训练的技巧吗?如果我们想进一步提高模型在某个垂直领域的推理和理解能力,能提供一些指令微调或者是预训练(如果需要)的建议吗?