boom
boom
same problem when rebuild with GPU
do u have any sulotion? same question with u.
> > 我是菜鸟,看各位大神都说得很高深.问了一下claude。差不多就几个意思,1、需要更大的数据集。2、数据太少。3、数据精度不够。4、调教方法有问题。。。。。。感觉好有道理,和没说一样!!!!! > > 哈哈,使用这个p tuning v2精调方法,加上广告数据,究竟有没有人调出来,既能回答广告数据,又不遗忘老的知识呢?有人调出来了吗?这个问题帖子人气高,希望有调试出来的上来吱一声~~ 昨天使用adgen数据集,把p_tuning的学习率调小后得到一个看起来效果还行的结果 效果:https://blog.csdn.net/bmfire/article/details/131064677
不同数据集设置steps的一样么
因为你设置了steps, 训练时长就由steps决定了。 steps跑完,训练过程就结束了 ,而不是数据集的样本都跑。
same request
用docker,服务可以跑通 但是票难刷到。。。
https://github.com/huggingface/transformers/blob/main/src/transformers/models/llama/convert_llama_weights_to_hf.py