songyouwei
songyouwei
I haven't tested it on pytorch version 0.4x.
试试改成 pack_padded_sequence(batch, lengths = seq_lens.cpu().int())
是否微调bert的参数,性能上的要求其实基本是一样的。你可以贴一下log看一下
ABSA的数据集,官方在发布的时候是没有划分devset的。 这个repo提供了两种验证的方式作为参考: - 直接切分一定比例用作validation https://github.com/songyouwei/ABSA-PyTorch/blob/6ba6e040c8bc7aa9e7294905d3254a3f79e46caf/train.py#L199 - 使用k折交叉验证 https://github.com/songyouwei/ABSA-PyTorch/blob/6ba6e040c8bc7aa9e7294905d3254a3f79e46caf/train_k_fold_cross_val.py#L210
Are you using the default configuration? Please provide your pytorch version and training log.
What version of pytorch do you use?
非bert模型不会用到这个,有log不影响的。中文数据可以使用google的bert中文模型,按字处理
应该就是数据量不足,模型其实学的不够好吧
数据集提供好的sentence aspect pair
I'm not familiar with BioBERT, it may due to the introduction of additional transfer learning issue?