ownnaruto
ownnaruto
Hi~Thank you for providing such an excellent work! But I have some questions about the calculation of the "decay_diff" term. ( LambdaRank.py, line 197) I noticed that you are using...
您好,我对于时间序列非平稳带来的问题一直存在一些疑惑,时间序列非平稳是指序列的统计信息随时间变化,可是这到底是如何影响神经网络模型的预测呢?神经网络预测输入的是历史序列,输出的是未来序列,只要这个映射关系是存在一定规律的,那么神经网络应该就能够在一定程度上学到这种关系,序列的非平稳是如何影响这种映射关系的呢?为什么平稳的序列就一定更好呢?(白噪声也是一种平稳序列,可是却完全无法预测。
您好,我对于时间序列非平稳带来的问题一直存在一些疑惑,时间序列非平稳是指序列的统计信息随时间变化,可是这到底是如何影响神经网络模型的预测呢?神经网络预测输入的是历史序列,输出的是未来序列,只要这个映射关系是存在一定规律的,那么神经网络应该就能够在一定程度上学到这种关系,序列的非平稳是如何影响这种映射关系的呢?为什么平稳的序列就一定更好呢?(白噪声也是一种平稳序列,可是却完全无法预测。
您好,感谢您提供这么完整,清晰的框架。 我注意到目前框架在训练时是固定训练100个epoch,这样是否可能会存在训练不充分的问题?(比如STID 在METR-LA数据集上100个epoch似乎并未训练充分,可能效果还能再继续提升一些),能否加入early stop机制呢?
The 'GTS' results reported in your paper are inconsistent with the corresponding paper, as detailed below: you paper: original paper: How this happen?
论文的对比实验是否公平呢? 1. STEP的encoder使用了过去288 * 7个时间点的数据得到最后的hidden表示,然后和最近12个时间点的原始数据一起作为预测部分的输入 2. 然而论文中对比的方法几乎全部都是只使用了过去12个时间点的原始数据作为输入,而你们使用了更多的历史数据,蕴含信息更多,可能使得预测变得更容易了 所以我觉得这样对比论文的实验是不公平的
### Description of the new feature / enhancement | 您所需的新功能或能力 1. 您好,非常感谢您的代码,我对这个方向的对比实验有些疑问,看到很多这个方向的论文对比的方式似乎都不太一样。一些论文在Step 3, Step 6, Step 12上进行比较,有些论文却在average上进行比较,想问下您更赞成哪一种呢? 2. 想请问一下您是否可以公开baseline的训练log,从而能够方便社区进行更统一的对比实验呢? ### Scenario when this would be used? | 使用场景 社区的统一对比 ###...
代码问题
你好,请问你们实验的设置是什么?按照main.py的默认参数和论文中的描述不完全一致,差异很大。 另外,你们所有的数据集都用70%作为训练集,10%作为验证集,和20%作为测试集,但论文中的实验设置又说使用连续的10天作为训练,并不一致。
代码问题
代码中为什么要返回 5个一样的值呢?