XiongZhongBo
XiongZhongBo
> 没法复现这个问题。你加载checkpoint之后有做量化吗 是不是还需要执行 evaluate.sh吗?
> > > 没法复现这个问题。你加载checkpoint之后有做量化吗 > > > > > > 是不是还需要执行 evaluate.sh吗? > > 不用。你可以提供一下你修改后的 `cli_demo.py` 的完整代码吗 from transformers import AutoConfig, AutoModel, AutoTokenizer import gradio as gr import mdtex2html import...
> > @xiaoyaolangzhi 请问一下您用这个代码能解决上述问题吗 > > 可以,微调后参考文档里的代码测试 无效
> 同问,如果我的数据格式是 {"吃饭了吗","你好我是机器人不需要吃饭" } 这种作为训练可以吗。 还有dev遵循test data标准吗还是有什么要求。
同样,根据官方的数据集和官方的库训练完后,基本模型不能用了。 这个训练方法是错误的。请解决这个bug
> > > 玩蛋,一步一步根据官方的例子微调出来的东西已经不能用了。只能回答训练时喂的数据相关问题,不能正常回答其他问题了 我的跟你一摸一样的问题
> 我这边用lora训练的没出现这种情况。 > > 可以商用是吗。好的。
> p-tuning是通过加入并训练一个连续的prompt prefix(相对之下,人类构造的prompt是离散的)提升指定任务上的性能。如果更换任务,相当于使用了错误的prompt,性能下降属于正常现象(相当于让模型完成summary任务,但是用的prompt却是:请把以下语句翻译成英文)。p-tuning并不改变模型的权重,因此在将加入的prefix移除后,模型依然是p-tuning前的模型。可以在不同任务上进行p-tuning并保存prefix权重,之后按需求加载。 啥方法。