chatglm_tuning
chatglm_tuning copied to clipboard
使用demo中训练后的Lora模型,结果出现大量重复
加载项目中的output/adgen-chatglm-6b-lora模型,运行cli_demo.py,结果中出现了大量重复语句,如图:
加载项目中的output/adgen-chatglm-6b-lora模型,运行cli_demo.py,结果中出现了大量重复语句,如图:
偶尔是会有重复的生成,你多输入几次试试
还有一个问题,采用lora这种训练方式,理论上不会出现灾难性遗忘的现象,但是加载你给的训练模型,输入hello,输出是乱码
还有一个问题,采用lora这种训练方式,理论上不会出现灾难性遗忘的现象,但是加载你给的训练模型,输入hello,输出是乱码
理论和实际可能是不一样的,lora 是额外训练了一个旁路的矩阵参数,你加载 lora 训练后的 checkpoint,模型输出可能是会受到微调数据集和训练参数的影响。
