zxue
zxue
> Not sure if this would help, but I encountered the same issue and had to rollback to an earlier version of apex: > > ``` > git checkout f3a960f80244cf9e80558ab30f7f7e8cbf03c0a0...
I have the same problem
thanks for your response 发自我的iPhone > 在 2022年2月28日,12:23,Richard Fang ***@***.***> 写道: > > > Sorry for the late reply. > Yes, the reason is exactly what you said. >...
> 请问下你们训练时的配置,什么显卡,最后是用的best.pt吗? > > 我在yolo上跑,自己用的rtx3090 imgz=1280 batchsize=8,我跑出了下面的结果,这个结果较高,我有点怀疑我的实验结果  我是用的best.pt基本上在50个epoch内就能取到了。 > >  > 我们使用的显卡是Tesla T4,测试模型使用的last.pt,imgz=1280,batchsize = 8,模型结构yolov5l。 我也有同样的问题。我想知道作者在[arxiv v3](https://arxiv.org/abs/2108.10831)版本中使用的yolov5l是什么版本的?正如 @Hiram1026 所言,不同版本的yolov5l获得的结果是不同的,规律基本上是越新的版本结果越好。 我将作者arxiv上3个版本中的结果汇总如下,yolov5不同版本的时间也汇总如下。按照作者发表的时间,我猜测使用的是YOLOv5L 5.0 version。为了能够与作者的结果进行公平对比,我想知道作者的YOLOv5L版本号是什么。  
> 我们Arxiv v3版本中使用的yolov5l版本为version5.0,各位可以参考一下。 感谢回复!
The same question confuses me. I look forward to getting an answer. The author provides a pre-trained checkpoint named "yolov5l_transformerx3_llvip_s1024_bs32_e200". As [this](https://github.com/DocF/multispectral-object-detection/issues/4#issuecomment-979777484) reply mentioned, the author uses 1024 x 1024...
> The same question confuses me. I look forward to getting an answer. > > The author provides a pre-trained checkpoint named "yolov5l_transformerx3_llvip_s1024_bs32_e200". As [this](https://github.com/DocF/multispectral-object-detection/issues/4#issuecomment-979777484) reply mentioned, the author uses...
I solve this issue by updating my tensorflow to 1.15.0
我同时发现,issue #29 中也有人遇到同样的问题
@SwaggyYhy 这有两个原因:1-现在的yolo-v5已经升级到7.0版本了,而作者使用的是5.0版本,所以yolov5-v7.0本身的baseline就比YOLOv5-v5.0好。为了公平对比,您应该选择在相同的设置下进行实验;2-llvip这个数据集本身thermal就很清晰,rgb能给thermal提供的互补信息比较少,所以为了验证“特征融合是否对检测有帮助”,您可以选择在多个数据集上测试,比如kaist,flir, m3fd等等。 希望您能分享之后的实验结果。