yolov5x使用PaddleSlim过程中调用X2Paddle转换onnx模型为paddle模型时报错:convert failed node:onnx__Concat_649, op_type is Resize
感谢您参与 X2Paddle 社区! 问题模版为了 X2Paddle 能更好的迭代,例如新功能发布、 RoadMaps 和错误跟踪. :smile_cat:
问题描述
-
错误信息 Converting node 666 ... 2022-11-09 06:28:18,955-WARNING: convert failed node:onnx__Concat_649, op_type is Resize 2022-11-09 06:28:18,956-ERROR: x2paddle threw an exception, you can ask for help at: https://github.com/PaddlePaddle/X2Paddle/issues
-
错误截图

具体信息
- 转换模型后用处
- [ ] 使用 PaddleSlim框架进行模型自动压缩
- 模型来源 YOLOV5X:https://github.com/ultralytics/yolov5
- 应用场景 用于PaddleSlim模型自动压缩实践,部署在服务端降低耗时
- 版本信息 PaddlePaddle => :grey_question:paddlepaddle-gpu 2.3.2.post112 X2Paddle => :grey_question:x2paddle 1.3.9
- 您的联系方式(邮箱/微信/电话)
@Hap-Zhang 您好,麻烦提供一下ONNX模型吧
另外,可以描述一下以下两个问题吗: 1、具体业务场景 2、为什么有转到Paddle部署的需求呢?
感谢~
@wjj19950828
您好,非常感谢您的回复,由于公司上传文件限制,模型还没办法传出来,这里面的ONNX模型是使用yolov5官方提供的export.py文件导出的,不知道您是否方便导出尝试下呢:
pytorch模型位置:https://github.com/ultralytics/yolov5/releases/tag/v6.2(yolov5x.pt)
导出onnx模型脚本及命令:
直接拉取官方镜像(docker pull ultralytics/yolov5:latest),在镜像中路径/usr/src/app下执行下述命令:
python export.py --weights yolov5x.pt --include onnx
1、具体业务场景 水印去除任务,第一步需要使用目标检测yolov5x模型进行水印检测 2、为什么有转到Paddle部署的需求呢? yolov5x模型推理速度慢,使用PaddleSlim框架进行模型自动压缩,其中用到了X2Paddle框架,需要将ONNX模型转换回Paddle格式
@wjj19950828 您好,使用https://github.com/ultralytics/yolov5/releases/tag/v6.0这个下面的yolov5s.onnx文件运行也会有同样的报错,请问可以帮忙看下吗?谢谢了
@Hap-Zhang 具体解决方案可参考:https://github.com/PaddlePaddle/X2Paddle/issues/913