ymr12

Results 5 comments of ymr12

哦哦好的,那请问在论文里提到的判断上下文是不是相关的对话是怎么做的呢? ---原始邮件--- 发件人: ***@***.***> 发送时间: 2021年7月17日(周六) 下午3:56 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [lemon234071/clean-dialog] bert-clean是怎么判定上下文不相关的对话 (#5) 这个项目和那篇论文没啥关系,只是这个项目和论文中的“规则清洗”有重合的规则 — You are receiving this because you authored the thread. Reply to this...

哦哦好的,感谢😊 ---原始邮件--- 发件人: ***@***.***> 发送时间: 2021年7月17日(周六) 晚上10:36 收件人: ***@***.***>; 抄送: ***@***.******@***.***>; 主题: Re: [lemon234071/clean-dialog] bert-clean是怎么判定上下文不相关的对话 (#5) bert模型在标注数据上训练做分类, 论文理有详述 — You are receiving this because you authored the thread. Reply to...

I also met the problem that reward is nan. I'm so confused how nan come for reward, it is a scaler from another model's output.

请问随机种子是否也有影响?同样的超参数,随机种子不同收敛效果也不一样。另外为什么buffersize要尽量小呢?buffersize越小,方差越大,而且会导致batchsize也比较小

> I also have the same problem on Ubuntu18.04 Me too. Have you fix it?