123
123
python deploy/slim/quantization/export_model.py -c configs/det/ch_ppocr_v2.0/ch_det_mv3_db_v2.0.yml -o Global.checkpoints=output/quant_model/best_accuracy Global.save_inference_dir=./output/quant_inference_model PaddleOCR中量化训练后,文档中写道 上述步骤导出的量化模型,参数精度仍然是FP32,但是参数的数值范围是int8,导出的模型可以通过PaddleLite的opt模型转换工具完成模型转换。
[W 9/29 1:47:17.718 ...ter/nnadapter/src/runtime/compilation.cc:334 Finish] Warning: Failed to create a program, No model and cache is provided. [W 9/29 1:47:17.718 ...le-Lite/lite/kernels/nnadapter/engine.cc:149 LoadFromCache] Warning: Build model failed(3) ! [W 9/29 1:47:17.739...
 按照步骤增加了一个配置文件,使用的模型是项目原本自带的 自己转的模型感觉不太对,使用的是下面的代码:  我使用的是windows,他转ncnn中间过程下载了pnnx-20240226-windows.zip,模型转换后名字中间加了一个pnnx  手机上显示的是这个,并没有识别结果  大佬这个该怎么改一下,还有就是我这模型转换有问题吗?