acheng
Results
3
comments of
acheng
不好意思,想具体请教一下,我是否可以将 tokenize(_tokenizer, texts: Union[str, List[str]], context_length: int = 77, truncate: bool = False) -> Union[torch.IntTensor, torch.LongTensor]: 中的 truncate设置为True来解决?
感谢你的回答,通过你的回答,我解决了这个问题,非常感谢!
我在训练的时候,出现了一个现象,就是越训练效果越差反而最好的参数是在epoch1,不知道您有没有出现这种情况?我训练时调整了batchsize会不会跟这个有关系?不知道您有没有什么建议?我猜测是过拟合了,现调小了学习率,但看目前训练的效果,感觉并没有解决。