lq0104
lq0104
您好,主要是移动端常用的backbone,比如说mobilenet, mobilenetv2, mobilenetv3, shufflenet;以及一些检测模型,比如ssd,yolov3, yolov4, yolov4-tiny等。或者您这个repo目前测试的这些模型都行,主要是想看下不同的推理框架在海思端(比如3516/3519/3519A等平台)下的表现能力
> The gt box number are unbalance at each scale layer , like below , you may need to generate new anchors like [wiki](https://github.com/eric612/MobileNet-YOLO/wiki) , link "Generate anchors to increase...
太强了!我更新了代码,测试没问题,这个repo是我找到的几个支持yolov4-tensorRT中最适配Windows的代码,谢谢大佬的分享~ 还要请教一个问题: #22 这里面问到的第一个问题,他问的应该是如果input width和height不一致的话代码支不支持,我看您的回答好像是如果对网络动态输入width和height不支持,看着有点迷糊 所以在这我还想再确认一下目前的状: 1.如果输入width!=height的话支不支持?比如我训练网络的时候输入的分辨率不是(416,416)而是(512,384) 2.如果动态输入分辨率支不支持?比如这次是(416,416),下次是(512,512),再下次是(608,608)。
太感谢了!如果方便的话,有空的时间麻烦改一下就行,我前天刚接触tensorRT,太菜了,要不还能试着PR一下
谢谢代码更新! 在更新下我这边对engine的测试,我发现如果两台电脑GPU的计算能力不同的话,这台电脑生成的engine文件在另一台电脑上会报错,信息类似于:expecting compute 7.5 got compute 6.1 解决方法是如果计算能力不同,那么还是要把weights文件拷过去,让另一台电脑重新生成engine文件。原因我在网上查的解释是:“tensorrt 的序列化和反序列化操作只能在特定硬件上做,两个操作需配套;” 在这里共享一下,以便有遇到同样问题的人能够快速解决 )
> W load_onnx: It is recommended onnx opset 12, but your onnx model opset is 9! Maybe this cause something wrong
想了解数据预处理这部分是怎么做的?比如训练和测试的分辨率等等 还是训练的超参数具体是什么
我的输入的crop是128*128,其他与你类似,目前最好的val mae也是100多一点,anchor改成3*3,也这样
这个升级到tensorrt8后NvInfer.h中的这个class TRT_DEPRECATED IOutputDimensionsFormula被遗弃了,所以m_TinyMaxpoolPaddingFormula也被注释掉了,我看这个代码的readme里也把对yolov tiny的支持去掉了,不知道后续用什么替代方案来支持呢?
@sanchit-gandhi > Here's an overview of the training methods, with a link to direct fine-tuning: https://github.com/huggingface/distil-whisper/tree/main/training#overview-of-training-methods Hello, I have a question. In this link, it points to the fine-tuning guide...