Monday-Leo

Results 7 issues of Monday-Leo

已经成功使用c++运行RetinaFace,生成了trt模型,并正确预测。请问如何使用python加载tensorrt预测?

I succesfully run the code and get the correct result. But it can only set the MINOVERLAP = 0.5 or other constant value. Now Map 0.5:0.95 is a very useful...

在torch中可以使用以下代码导出半精度ONNX模型 ``` img, model = img.half(), model.half() torch.onnx.export(model, img,...) ``` 使用paddle2onnx导出的是全精度模型,如何导出半精度模型?

enhancement

使用命令`paddle2onnx --model_dir output_inference/ppyoloe_crn_s_300e_voc --model_filename model.pdmodel --params_filename model.pdiparams --opset_version 11 --save_file ppyoloe_crn_s_300e_voc.onnx`导出onnx,输入有两个,输出也有两个,这是否正常?该如何预测?感觉shape都不是很正常。 ![微信图片_20220331011216](https://user-images.githubusercontent.com/53975909/160892871-09c470ce-bbb7-4fe0-aafc-4e178e749cfa.png) ![微信图片_20220331011226](https://user-images.githubusercontent.com/53975909/160892875-886335c9-2db7-4bb1-aa06-c76c1716fc41.png)

当我训练自己的数据集时,在本地电脑训练,batch_size设为4,此时应该怎么调整学习率?`self.basic_lr_per_img = 0.01/64.0`,改成`self.basic_lr_per_img = 0.01/4.0`精度较差

代码中的数据预处理是resie到 [224,224],之后CenterCrop [224,244],CenterCrop前后图像大小一样是不是意味着CenterCrop不起作用?我看很多其他仓库的代码是训练时候直接Randcrop到 [224,224],而在预测或评估时先resize到 [256,256] 再CenterCrop到 [224,224],想请问一下这个问题。 另外,仓库中的归一化方式是除以127.5,之后-1,把所有像素点归纳到 [-1,1]之间,而其他仓库是除以255,之后用imagenet1K数据集的mean和std作normalize,官方论文中是用哪种方式呢?

Hi! The dxcam capture speed is unstable, between 0-10ms.The results are as follows. Why? Is it a bug? 1.1258000000000656 7.967900000000139 2.7013000000000176 2.367800000000031 3.877499999999756 0.017199999999828464 5.908699999999989 1.8077000000000787 1.7446000000003181 6.1069999999996405 1.5810000000002766 0.030100000000032878...