Juliaququ

Results 4 comments of Juliaququ

CNN这些应该是复现其他人的论文

from speechbrain.pretrained import SepformerSeparation as separator import torchaudio model = separator.from_hparams(source="speechbrain/sepformer-wsj02mix", savedir='pretrained_models/sepformer-wsj02mix') # for custom file, change path est_sources = model.separate_file(path='speechbrain/sepformer-wsj02mix/test_mixture.wav') torchaudio.save("source1hat.wav", est_sources[:, :, 0].detach().cpu(), 8000) torchaudio.save("source2hat.wav", est_sources[:, :, 1].detach().cpu(),...

> That's weird. I tried a couple of days ago and everything was working. Could you please share the code snippet with us? Cem can take a looks as well....

> > 您好! > > 很抱歉又打扰了,最近在DWIE数据集上尝试复现BiLSTM一类模式时发现,按照docred默认的参数设置,模型在验证集上的f1基本只能收敛到40左右,离您论文中报道的验证集f1达到50还有着较大的差距,一方面我感觉和验证集数据量太少有关,一方面也和具体参数设置有关,不知道您怎么看,可以的话,能不能请教一下你们的一些具体训练设置,比如学习率,batch_size,最大长度截断,以及有无使用比如dropout或者lr_schedule等技巧。 > > 期待您的回复,非常感谢! > > 祝好 > > 您好! > > 感谢反馈!不知道之前 ATLOP 那个结果您现在对齐了吗?后面我用他们在 docred 上的原始代码只做了必要的修改(关系数目,增加头尾实体相同的关系等)又试了一下,和之前给出的结果是接近的,应该和超参以及长度截断关系不是很大。想确认一下有没有可能是一类问题。 您好 请问您除了修改关系数目 增加头尾实体相同大的关系还做了哪些修改呢