桐原因
桐原因
extended_attention_mask = extended_attention_mask.to(dtype=next(self.parameters()).dtype) # fp16 compatibility 卡在这语句上,感觉应该是维度不匹配的问题,应该怎么修改啊?
这样导致原本的word和token之间对应不上。
i follow this step: ``` git clone anserini cd anserini mvn clean appassembler:assemble ``` but, error ``` [ERROR] Failed to execute goal on project anserini: Could not resolve dependencies for...
测试集没有label
你好,请问测试集中没有标签,无法进行建图,只用train的数据进行建图。可以吗?对结果的影响大吗?
单机多卡跑GlobalPoint模型,出现以上错误,其他模型多卡代码跑GlobalPoint没有报错
安装了nccl,  https://github.com/PaddlePaddle/Paddle/issues/28757 https://github.com/PaddlePaddle/Paddle/issues/29172 https://github.com/PaddlePaddle/Paddle/issues/36608 也尝试上述方法,似乎都不太行

类似文本匹配三分类问题,相似、部分相似、不相似这样的。
总是出错RuntimeError: The size of tensor a (94) must match the size of tensor b (214) at non-singleton dimension 1 发现多GPU会切割维度,导致match不上。如何正确设置多GPU运行?
> gigaword_chn.all.a2b.uni.ite50.vec/gigaword_chn.all.a2b.bi.ite50.vec/ctb.50d.vec/sgns.merge.word从readme中能够找到这四个,还缺上边的yangjie_word_char_mix.txt,不知道有没有遗漏,老哥方便给个链接吗 这个文件sgns.merge.word在哪里啊 _Originally posted by @Eason-zz in https://github.com/LeeSureman/Flat-Lattice-Transformer/issue_comments/705606773_