123

Results 3 issues of 123

python deploy/slim/quantization/export_model.py -c configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml -o Global.checkpoints=output/quant_model/best_accuracy Global.save_inference_dir=./output/quant_inference_model PaddleOCR中量化训练后,文档中写道 上述步骤导出的量化模型,参数精度仍然是FP32,但是参数的数值范围是int8,导出的模型可以通过PaddleLite的opt模型转换工具完成模型转换。

[W 9/29 1:47:17.718 ...ter/nnadapter/src/runtime/compilation.cc:334 Finish] Warning: Failed to create a program, No model and cache is provided. [W 9/29 1:47:17.718 ...le-Lite/lite/kernels/nnadapter/engine.cc:149 LoadFromCache] Warning: Build model failed(3) ! [W 9/29 1:47:17.739...

![image](https://github.com/wkt/YoloMobile/assets/33601373/ea2fc63e-7f43-4633-87d8-e257e66de279) 按照步骤增加了一个配置文件,使用的模型是项目原本自带的 自己转的模型感觉不太对,使用的是下面的代码: ![image](https://github.com/wkt/YoloMobile/assets/33601373/ffe0cd51-e670-4017-aa08-7b9e654d29bb) 我使用的是windows,他转ncnn中间过程下载了pnnx-20240226-windows.zip,模型转换后名字中间加了一个pnnx ![image](https://github.com/wkt/YoloMobile/assets/33601373/f19ab20d-5c57-4985-bc95-c31dc53af1ca) 手机上显示的是这个,并没有识别结果 ![image](https://github.com/wkt/YoloMobile/assets/33601373/a673460f-c726-4373-b8b8-ce85d132aafb) 大佬这个该怎么改一下,还有就是我这模型转换有问题吗?