ZML
ZML
@KaihuaTang 作者你好,我仔细看过BBN代码,他的代码并没有用预训练模型(至少cifar没有用),使用预训练模型一定程度是不公平的。其次并不能固定随机采样的种子,不同的采样方式得到的训练集,在验证集上的准确率差异至少有1.5个点(这个差异主要来自选择的小样本代表性及训练难度),多跑几次实验就发现,个人认为合理的实验方式是多次实验取平均值。
> 他default是load pretrained model 的 >  作者你好!你应该没有仔细看过BBN代码,可以看看对应yaml文件和default.py,以前的LDAM和effective sample均不会使用。
> > @KaihuaTang 作者你好,我仔细看过BBN代码,他的代码并没有用预训练模型(至少cifar没有用),使用预训练模型一定程度是不公平的。其次并不能固定随机采样的种子,不同的采样方式得到的训练集,在验证集上的准确率差异至少有1.5个点(这个差异主要来自选择的小样本代表性及训练难度),多跑几次实验就发现,个人认为合理的实验方式是多次实验取平均值。 > > 跑多次的问题,这个CIFAR实验最开始是rebuttal时候加上的。当时没来得及多跑,事后我测试了多次,基本结果稳定,增加幅度不大。 训练样本的选择必然会导致性能的差异。
作者你好,我还有个问题关于ImageNet-LT数据集,你的代码基于Decoupling这篇文章,为什么这个baseline就存在差异(原文是44.4%,你论文里是45.0%),是什么方法促使其涨点的?这个改进是不是你提出方法涨点的部分原因那?
> > @KaihuaTang 作者你好,我仔细看过BBN代码,他的代码并没有用预训练模型(至少cifar没有用),使用预训练模型一定程度是不公平的。其次并不能固定随机采样的种子,不同的采样方式得到的训练集,在验证集上的准确率差异至少有1.5个点(这个差异主要来自选择的小样本代表性及训练难度),多跑几次实验就发现,个人认为合理的实验方式是多次实验取平均值。 > > 仔细比较了BBN的config文件之后,我移除了预训练,并将scheduler和num_epoch等设定和BBN做了统一。结果确实略有下降,不过依然超过BBN等之前的方法,最新的结果表和相关代码已经更新,这次我实验跑了两次取了均值。我已在最新的文档中添加了对你的感谢,并会在论文最终版中采用这个更公平的结果。 谢谢作者,文章的思路想法还是挺好的。
Excuse me, I find the batch size during train stage has important effect on accuracy of final result. When I change batch size from 16 to 128, the baseline get...
There are many bugs in this projects! I'm wondering the author did not test the code when uploading it.