wxqnl

Results 3 issues of wxqnl

![WG%Y9O@XT8O 4D8% {BM3O0](https://github.com/user-attachments/assets/4f3531e9-b681-432c-ab3c-3dcab6f335b9) 推理v5时没有出现这个错误,但是v8时出现了,我调式后输出pred预测内容,v8的明显就是不正确的,coco索引甚至达到了6000: ![1LA$A9 DD1}8XMSHD$ZU$O](https://github.com/user-attachments/assets/bf93a9fa-6264-4941-b34d-3635bf816995)

芯片310b4,mindspore2.2.14,cann7.0.0,python3.9.2 问题如下: 执行代码: python ./deploy/export.py --config ./configs/yolov8/yolov8n.yaml --weight yolov8-n_500e_mAP372-cc07f5bd.ckpt --per_batch_size 1 --file_format ONNX --device_target CPU ![fd9f51884a1d4b60807a6c2308130bc7 20240728135518 49118590252441221578227590072401](https://github.com/user-attachments/assets/d9fe75a9-bf78-4238-82b9-e8dc96472e0b) 网上查资料说是:脚本在导出过程中遇到了一个错误,提示 FillV2 操作符不支持导出。这通常是由于模型中使用了某些 MindSpore 特有的操作符,而这些操作符在 ONNX 中没有直接对应的实现。 如何解决此问题(v5没问题)

bug
rfc

型号:香橙派aipro 芯片310b4 cann7.0.0 mindspore 2.2.14 mindspore lite 2.2.14 python3.9.2 根据readme进行环境配置 ![fd9f51884a1d4b60807a6c2308130bc7 20240724134803 13314596167508274821416680801303](https://github.com/user-attachments/assets/6c43901d-677f-4b22-bd0d-60e5c384cc08) 现在进行完用cpu来模型转换(因为用Acend只支持910),成功转换为yolov5n.mindir ![fd9f51884a1d4b60807a6c2308130bc7 20240724134904 96605917531237777255168856188191](https://github.com/user-attachments/assets/8f4c56f7-8e20-4c64-a7e5-0ab6f617f0f0) 在运行推理时出现错误: python deploy/predict.py --model_type Lite --model_path ./yolov5n.mindir --config ./configs/yolov5/yolov5n.yaml --image_path ./coco/image/val2017/image.jpg ![fd9f51884a1d4b60807a6c2308130bc7 20240724135130...