赵颂歌
Results
2
issues of
赵颂歌
I found you used the dot attention with self-attention, i dont know how to write the concat attention when socre is **v * tanh(W[ht; hs])** rather than **ht * hs**...
关于每次循环变量中,声明的cellfw,cellbw 之类的,是重复使用吗 在构建整个大的多层bilstm中,还是实际网络运行中多层中每个cellfw,cellbw 不一样的。 `我之所以有这样的疑问,是我要在层与层之间加一个MLP。 `inputs = tf.concat([fw_outputs, bw_outputs] ,axis = 2) inputs = tf.reshape(inputs, [-1, hidden_size * 2]) inputs = tf.matmul(inputs, Multi_w[n]) + Multi_b[n] inputs = tf.reshape(inputs, [batch_size, -1,...