nihui
nihui
1. fp16->int8 是二分之一 2. 使用最新版本的ncnn 3. yolov5 使用 swish 激活,这无法量化导致频繁退回 fp16 计算,建议改用 relu 激活
如果是 pytorch 模型,推荐使用 pnnx 转换模型到ncnn,天然支持 Tensor.repeat 到 ncnn Tile 的转换
`BinaryOp add_16 2 1 120 122 123 0=0` 改为 `Noop add_16 1 1 122 123` 试试看
https://github.com/Tencent/ncnn/pull/4083
pnnx 会自动把模型末尾的 reshape transpose 删除,这里和原始模型不太一样
argmax 默认是不编译的,用 cmake 开关打开 NCNN_SIMPLESTL
https://github.com/dog-qiuqiu/FastestDet 官方仓库中有提供 ncnn 的部署代码
https://github.com/Tencent/ncnn/pull/4074
修复了 ncnnoptimize 没有处理 4d memorydata 的问题
这两个版本使用 ndk-r23c 编译,之前是 ndk-r21d