Results 18 comments of zhufq

> 我设置的batch_size=64,正常1s就训练完,有些时候得1分钟,感觉不是很正常 为什么我每个batch都要1分钟啊/(ㄒoㄒ)/~~ (batch_size=64)

所以precision和recall都很低,几乎为0的时候该怎么解决啊

> @Zhongdao 作者你好,我想将分类问题利用您这个聚类方法来解决,在训练阶段出现accuracy很高,但是precision和recall都很低,几乎为0,出现这样情况的原因可能是什么呢?在构造knn_graph时,k的选择有什么依据呢? > > 还有一个疑问,您构造的IPS子图中,positive节点数似乎非常少,在这样的情况下,训练时,recall和precision为何会很高,几乎为1呢? > > 谢谢! 请问你的问题解决了吗,我在将这个方法应用到新数据集的时候也训练不出来

I guess by adding position 1 embedding we can indicate which [mask] we are generating now. You can relook Figure2 . (c) . position 1 for a more intuitive explanation

I success run the pretraining code, just look my new closed issue, maybe it will help you

如果遇到neg_examples.min()异常了,trycatch把负样本距离设为1e-6就行,对三个标签取分别三个batch没这个效果好。

yes,I try my code and get the same result,and it's evident right ------------------ 原始邮件 ------------------ 发件人: "One J"

作者改了代码,你debug一下代码就知道怎么做了

yes, you are right