weiyouren
weiyouren
I also have the same problem
我看了文档 [models_list](https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.7/doc/doc_ch/models_list.md) 说paddle lite的模型其实可以根据paddle ocr的模型用opt工具导出.nb模型,于是可以用ch_PP-OCRv4导出.nb给paddle lite使用,我已经根据文档 [model_optimize_tool](https://www.paddlepaddle.org.cn/lite/develop/user_guides/model_optimize_tool.html) 生成了.nb模型,paddle lite 部署在手机上 但是很奇怪我的v4比v2慢了一倍
怎么转?用--model_dir参数?提示不支持的模型 ./opt --model_dir=./det --valid_targets=arm --optimize_out_type=naive_buffer --optimize_out=det --quant_model true --quant_type QUANT_INT8 [F 12/20 11:42:38. 67 ...e-Lite/lite/model_parser/model_parser.cc:134 PrintPbModelErrorMessage] Error, Unsupported model format! 1. contents in model directory should be in one of...