xkqk
xkqk
> 您好,这个需要在run.py中进行修改,传入eval_dataset 您好,我就是传入了这个参数之后,报错了,KeyError: 'eval_loss',打印的评估信息里面没有这个字段。。。 期待您的再次回复~
> 你好 我也遇到了同样的问题,请问解决了么?
大佬 这块是啥原因呀forward last_hidden, mems = self.xlnet(**seg_inp, mems=mems) # last_hidden: [b, 150, 768] mems: list: [150, b, 768] ValueError: not enough values to unpack (expected 2, got 1)
大佬 我也遇到了同样的问题 请问这个问题解决了么
请问具体是怎么解决的呢?
> > 试试改个参数,不用fairscale > > ``` > > --plugins ddp > > ``` > > 大佬我也遇到了同款问题,改成ddp后报了这个错误 File "C:\Users\16771\OneDrive\桌面\t5-pegasus-pytorch-main\utils.py", line 86, in dev_collate return self.train_collate(batch) File "C:\Users\16771\OneDrive\桌面\t5-pegasus-pytorch-main\utils.py", line 53, in train_collate...
> > > > 试试改个参数,不用fairscale > > > > ``` > > > > --plugins ddp > > > > ``` > > > > > > > > >...
感谢大佬
那这样的话,如果不同query的正样本数目差异很大,会不会导致正样本多的那个query无法充分利用所有正样本数据进行训练了?还有如果正样本列表数据非常多,负样本列表需要设置的大一些么?还有能不能就是把正样本列表拆开呢,比如一个query有一千条正样本,我直接构建一千个样本对,让每个正样本列表都只有一条正样本,这样是不是就能充分利用所有的正样本数据了?