dyc
dyc
I write an attention(based on lstm) for nmt using own data by studying your code.but the attention weights doesn't seem normal. here is the code. Can i get some help...
您好,在/code/chapter7.py中,第695行-699行 `def _gain(self, y, y_pred):`   `# 计算信息`   `nominator = np.power((y * self.loss.grad(y, y_pred)).sum(), 2)`   `denominator = self.loss.hess(y, y_pred).sum()`   `return nominator / (denominator + self.lambd)` 其中np.power((y*.......),这个**乘以y**是否是多余的呢?印象中似乎不需要这么做。 此外,我自己实现的xgboost和另外两个xgboost的开源实现都没有这个**乘以y**。...
您好,我是一名学生。我在github上找到了您的项目,并参考其中的代码实现了xgboost,但是效果很差,模型几乎没有学到任何东西。希望能够得到您的帮助!感谢!
hi, i am a student, can i get some help from you? thanks.