Cccwd

Results 15 comments of Cccwd

> > > 你好, > > 不同分辨率是根据Multipose及RetinaNet两篇论文的设定。实际上可以是相同的。 > > loss部分我不太确定。可能较好的loss应该是0.00048左右?可以用[multipose_keypoint_val.py](https://github.com/LiMeng95/MultiPoseNet.pytorch/blob/master/evaluate/multipose_keypoint_val.py)文件测试一下我的baseline model下的loss。个人感觉需要训练更多的epoch。 明白了,那我之后尝试一下以480的分辨率输入训练detect部分,看看效果对比一下会如何。 keypoint subnet目前训练到54个epoch,按照ReduceLROnPlateau的规则,3次loss没改变lr就变为1/10,学习率已经变成1.e-11,我觉得应该没什么训练下去的必要了。

> > > 你好, > > 不同分辨率是根据Multipose及RetinaNet两篇论文的设定。实际上可以是相同的。 > > loss部分我不太确定。可能较好的loss应该是0.00048左右?可以用[multipose_keypoint_val.py](https://github.com/LiMeng95/MultiPoseNet.pytorch/blob/master/evaluate/multipose_keypoint_val.py)文件测试一下我的baseline model下的loss。个人感觉需要训练更多的epoch。 抱歉又来打扰你了,我用multipose_keypoint_val.py测了你提供的baseline我训练出来的模型,以下是对比信息。 ### baseline model Validation: epoch 0[200/204] heatmap_loss_k2: 0.0005163718 heatmap_loss_k3: 0.0005394759 heatmap_loss_k4: 0.0006861072 heatmap_loss_k5: 0.0009484939 **heatmap_loss: 0.0004858993** max_ht: 1.0583070641...

有办法自定义设置ReduceLROnPlateau的监测指标(heatmap_loss)吗? 另外我想问max_ht、min_ht这两个是用来干什么的?看定义像是mask任务的东西,但是不太明白。

> > > ReduceLROnPlateau是用来检测loss变化的,具体设置见:[multipose_keypoint_train.py#L112](https://github.com/LiMeng95/MultiPoseNet.pytorch/blob/master/training/multipose_keypoint_train.py#L112)。 > > max_ht、min_ht仅用于观察生成heatmap的最大值最小值,与GT对比。不参与loss计算。 感谢,ReduceLROnPlateau好像只能默认检测网络最终的loss,并不能自己指定一个指标?

> > > 设置应该没有改变,建议重新训练一下或者调整一下参数 我检查了一下,可能我忘记设置Disable cudnn for batch_norm了,这个设置有关吗? 现在换480*480输入,学习率5e-5(一开始写1e-5写错了),decay rate=0.316,patience=2,进行学习。

> > > > > 设置应该没有改变,建议重新训练一下或者调整一下参数 > > > > > > 我检查了一下,可能我忘记设置Disable cudnn for batch_norm了,这个设置有关吗? > > 现在换480*480输入,学习率1e-5,decay rate=0.316,patience=2,进行学习。 > > 期待分享训练结果!^&^,不过patience=2会不会太小了一点 因为我每次下降的系数是0.316,也就是说需要两次下降才等于原来的一次,这样我想学习率曲线会平滑一点。

> > > pytorch0.4版本是需要Disable cudnn for batch_norm的,1.0以后的版本不需要。 期待大牛的pytorch1.X版本~ 应该是修改一些工具调用方式的问题?

> > > > > > > 设置应该没有改变,建议重新训练一下或者调整一下参数 > > > > > > > > > > > > 我检查了一下,可能我忘记设置Disable cudnn for batch_norm了,这个设置有关吗? > > > > 现在换480*480输入,学习率1e-5,decay rate=0.316,patience=2,进行学习。...

的确我考虑过比例的问题,以128x256作为输入训练出来的效果还没有192x192的好。我在想是不是裁出bbox训练出的模型对背景辨别低的问题,你了解过其他state of art 的方法数据处理是整张图训练还是裁剪过的吗?

loss 爆炸了,调低点学习率还有用gradient clip试试