Haochun Wang
Haochun Wang
感觉baidu提供的是saved_weights解包后的参数文件,我最近也在研究他们放出来的模型
@thinksoso
可以的,是cuiyiming的Chinese-Alpaca-7B,lora用项目里的就可以
您好,感谢您的关注,当前由于LLaMA模型的词表中中文数量有限,中文能力仍待加强,我们正在进行相关的优化工作。我们最近增加了基于中文医学文献的模型开源,其多轮对话能力也略有改善。显存问题未来我们也会尝试通过量化进行优化,谢谢
您好,由于LLaMA的中文能力有限,其中文词表只有千个左右,部分回答中会存在一定概率的乱码,我们会在近期更新基于扩充词表的llama模型,会缓解上述问题,谢谢
您好,我们有更新基于中文Alpaca进行我们的指令微调,可参照我们的readme的更新日志
是崔一鸣的alpaca-7B,readme上面有可以直接跳转的链接
您好 请详细描述您产生此错误的前提 方便我们进行排查 谢谢
请大家稍等,我们会在相关研究工作完成后第一时间开放出来
感谢大家关注,如有疑问欢迎新开issue我们一起讨论