Sheldon
Sheldon
> 请问你在train的过程中 desc_loss, desc_top1_err and desc_top2_err大概是在什么范围内? @JiahaoXia 我的100个epoch过程中,desc_loss从9点几降到了1点几,desc_top1_err从87降到15,desc_top5_err从77降到8. 经测试最后一个checkpoint距离公布的精度还差几个点,目前考虑两方面因素:训练数据集划分和学习率。 训练集作者未提供具体的二八分割训练集验证集列表,自己划分的可能影响结果;学习率问题如题所述。如有了解,欢迎指教!
> 我可以顺便问一个问题吗?作者使用的valid.txt和train.txt请问在哪里下载,我在Google Landmarks Dataset v2只找到了trai.csv。 我用的文件来自于[train_image_list](https://github.com/feymanpriv/DELG/blob/master/datasets/data/landmark/train_list.txt),不过这是完整的训练集列表,论文中说随机划分20%作valid,剩下的作train,但并未公开作者的划分结果,不知作者能否提供 @feymanpriv
> > 按照代码里的配置完成了训练,发现过程中学习率最高只有BASE_LR参数设定的0.01,对比论文4.1节中提及的initial learning rate为0.05,请问是否应将BASE_LR修改为0.05?论文所说的initial learning rate是指warm up前第一个epoch的学习率,还是warm up后第6个epoch的最大学习率? > > 你好,这个仓库的配置文件中的学习策略在哪里使用了,我看了下代码并没有找到学习策略使用的相关方法,只找到了相关定义 你指的是LR_POLICY=cos这个参数吗,这应该是在[DOLG/core/optimizer.py]里用到了吧,每个epoch中通过train_epoch()函数`lr = optim.get_epoch_lr(cur_epoch)`进行设置