TolicWang
TolicWang
您好,由于我未接触过keras,所以自然也就没有基于keras2.x版本。
你这是不是先用了use_attention=True跑了模型,然后马上又改为use_attention=False来跑? 如果是这样的话可能是由于没有删除之前的模型导致的。你把保存过的模型删掉再试试
链接: https://pan.baidu.com/s/1xRNv9GXvJH6WMXTaPtJcpw 提取码: vr9x
可关注公众号”月来客栈“ 回复 ”DeepST“获取
> Thank you very much for sharing the thesis code. > WIll you please share the TaxiBJ dataset and also BJ13_M32x32_T30_InOut.h5 file). > thanks in advance. > > P.S> Above...
> 感谢,终于找到TaxiBJ dataset了,找了好久。最后一个百度网盘链接还是有效的。 不客气
> 博主您好,请问可以发一份数据集链接吗?[[email protected]](mailto:[email protected]) 关注 公众号 月来客栈 获取
一部分是由于过拟合造成的(但在你说的问题中不是主要); 另外一部分是因为在训练过程中,数据都是经过特征缩放的(-1,1),而预测出来的结果是特征缩放回复后的值,所以差距很大
1.如果是换成自己数据集的话可能要修改一些参数,比如学习率之类的; 2.这个Loss不像是准确率一样,我们明确它的含义,所以我们并不知道“0.0003”到底是高还是低; 3.对于这种情况loss看起来好低,且看起来不降的情况,也许是数值太小精度的问题,你可以将最终的Loss乘以1000之类的输出看看,如果这样到后面还是不降的话,那就考虑调整更多的超参数了;
那你好好debug一下,肯定哪儿有问题。