Super-Super

Results 1 issues of Super-Super

``` self.delta = self.activator.backward(self.input) * np.dot(self.W.T, delta_array) self.W_grad = np.dot(delta_array, self.input.T) self.b_grad = delta_array ``` `np.dot(self.W.T, delta_array)`中的权重应为下层的权重,不是当前层的权重; `delta_array`为从下一层传递过来的误差项,权重梯度及偏置梯度应根据当前层的误差项进行计算。 ``` self.W_grad = np.dot(self.delta, self.input.T) self.b_grad = self.delta ```