zhouzhubin
zhouzhubin
@beibeiaishuijiao 你好,我想问一下,那作者在Rnet、Onet执行gen_imglist_rnet.py的意义是什么?
你好,你现在知道这个文件有没有用阿,我也有这个疑问。在gen_RNet_tfrecords.py中产生landmark,是通过哪产生的,是不是这个train_RNet_landmark.txt文件。还是landmark_24_aug.txt,这个文件。如果是这个文件,那后面训练Rnet、Onet为啥作者还要执行gen_imglist_rnet.py这个?
@ZOUYIyi 你好,请问你解决了吗?我也是有这种错误
@yangxue0827 你好,我把那个500多毫秒的图片单独复制了好多份,然后在inference,发现时间又变成了100多毫秒?这是怎么回事啊!!!!
@yangxue0827 不是的,一直运行这一张图片,它的时间差异就不大,如果前面穿插其他的图片,时间就会变成五百。现在发现训练在100000之前的模型,inference的时间还是比较稳定的,在训练到后面的话,inference的时间就不太稳定,还有就是ADD_ATTENTION,使用或不使用,都会造成inference波动很大。
@yangxue0827 这个工程能用tensorflow servering来部署吗?我把模型用tf.saved_model.simple_save来保存,然后起servering,起不来,会报错
@yangxue0827 恩恩,好的,谢了!我也训练了,基于mobilenetv2的,我是自己的数据集,感觉露检挺严重的,我应该怎么提升训练?请问你在dota上的精度怎么样?
@yangxue0827  这个就是测试图片的时间,同一个场景下的图片,检测目标也是一样的,但是inference时间差异也很大,同一张照片也是这样的,这个是什么原因引起的?
@yangxue0827 大佬,你好!还有一个训练上的问题,有时候训练了十几万步,但是在inference的时候,一个目标都检测不出来,看tensorbord里面,loss都是下降的,就是每一千步所保存的预测图片,也都是没有检测结果的,这种情况也出现了蛮多次了。我是用自己的数据集,就是有时候训练有结果,有时候又没有,感觉完全碰运气一样。
恩恩,好的,谢了!发现只能靠试的。我训练中发现两个,理解不了的问题,一个是是我训练facenet的时候,就是一直训练,训练到loss基本不下降了,那个学习率也降到最低了。最终在val上的准备率,差不多是0.92左右。然后我拿这个模型finetun,学习率是一开始的0.01,在val上的准备率一开始有点震荡后面就是会长到0.97左右,学习率也没有降到最低。第二个是从头开始训练的时候,batchsize 90的比32的效果差10点左右,这两个我不太清楚是什么情况