whichwitch
whichwitch
I had the same problem while running the fine tuning code. And the problem seems to be caused by multiple GPUs. So I added os.environ["CUDA_VISIBLE_DEVICES"] = "0" at the very...
> > 已经解决 > > 怎么解决的 set 'use_itn=True' in model.generate
> > 我的代码里我用脚本的batchsampler关掉了就解决了,我当时的解决办法是我先用一条数据去,然后发现他batch里对同一条数据采收的一致性,然后batchsampler那条注释掉就可以运行了 > > [……](#) > > 采用这个方法解决了!可以正常训练了 我这里有点奇怪,我删除了batchsampler那一行还会显示一样的报错,但是只注释掉batchsampler不删除就能运行少量数据,数据集一大就会cuda out of memory
应该是预训练模型没有下载完整导致的
请问有没有人解决了这个问题呀