lucaslu1987
lucaslu1987
我的也很难收敛,数据集你是用的300W么,还是MENPO的。
好的,期待你的mobilenet V2,非常感谢
你好,很感谢你的代码。我用你的代码训练stage1, 训练到100个epoch时,训练loss稳定在0.075左右,不再下降,测试集loss也不再下降,降lr也没有效果。实测几个数据集和paper的差距也比较大。想了解一下你训练的模型大概是什么样的效果。另外你的模型没有用Meanshape去回归,而是直接回归landmark,不知是出于什么考虑。谢谢
那你的mobilenetv2版本最好在测试集上有测试么,具体的测试误差有么。
非常感谢您提供的数据链接。我用你说的数据集扩充到15W左右,直接用你的网络和参数训练,到30个epoch时,loss几乎已经不下降,和你说的效果还有一定的差距。不知道你自己训练时,数据增强的参数和训练的超参有没有调整。
好吧,我没有增强20倍,需要内存太多,那我改一下数据预处理代码。
嗯,内存太小啦,原始的数据增强代码太耗内存。
hello, 又来请教问题了。还是mobilenet的问题,我将数据扩展成40多万了,用了另外一个小网络训练,能训练到你说的challenge set8.3的程度。但是用你的mobilenetv2代码,40多个epoch了,似乎loss已经没有下降的迹象了,准确率确没有你达到的效果。所以能否告知一下你训练时的参数,batch size, stop epoch,learning rate 等等。
那就怪了,我100个epoch的时候,错误还是停留在10以上。我用另外一个小网络就训练的很好,难道是跟mobilenet八字不合。
自己用inception加shortcut等模块搭的。数据就是用你说的那个2万多张图片