DeepLearning
DeepLearning copied to clipboard
Python for《Deep Learning》,该书为《深度学习》(花书) 数学推导、原理剖析与源码级别代码实现
【2 线性代数.pdf】第2页公式(3)中: $A_{i,j}^T = A_{i,j}$ 应为 $A_{i,j}^T = A_{j,i}$
您好,在/code/chapter7.py中,第695行-699行 `def _gain(self, y, y_pred):`   `# 计算信息`   `nominator = np.power((y * self.loss.grad(y, y_pred)).sum(), 2)`   `denominator = self.loss.hess(y, y_pred).sum()`   `return nominator / (denominator + self.lambd)` 其中np.power((y*.......),这个**乘以y**是否是多余的呢?印象中似乎不需要这么做。 此外,我自己实现的xgboost和另外两个xgboost的开源实现都没有这个**乘以y**。...
DL中文.pdf cannot be downloaded.
您好,我是一名学生。我在github上找到了您的项目,并参考其中的代码实现了xgboost,但是效果很差,模型几乎没有学到任何东西。希望能够得到您的帮助!感谢!
在式18后,原文中有一句话,“从这个式⼦也可以明显看出 w波浪 和 w* 是同号的。” 实际上上面这句话仅在  时成立,**当小于等于时,需要另外考虑** 下面和书中一样只讨论w*>0的情况,负数同理可证  当w波浪>0时,导数为正 当w波浪
对路径阻塞的描述,称符合两个条件的任意一个即为阻塞,其中第二个条件原文为:“路径中存在某个节点 X 是 head-to-head 节点,并且 X 或 X 的⼉⼦是不包含在 C 中的” 由于我本人缺少计算机背景,在阅读这里时产生了X不在,或者儿子不在的歧义,经查并非如此 建议修改为“X及其子孙皆不包含于C”