likefxz2009

Results 3 issues of likefxz2009

我在转换tflite模型时发现不支持prelu,于是自己写了一下,放在 tools/converter/source/tflite/ReluTflite.cpp里,代码如下 ``` DECLARE_OP_COVERTER(PReluTflite); MNN::OpType PReluTflite::opType(bool quantizedModel) { return MNN::OpType_PReLU; } MNN::OpParameter PReluTflite::type(bool quantizedModel) { return MNN::OpParameter_PRelu; } void PReluTflite::run(MNN::OpT *dstOp, const std::unique_ptr &tfliteOp, const std::vector &tfliteTensors, const std::vector &tfliteModelBuffer,...

在我的使用场景中,需要使用tnn静态库,由于tnn静态库使用时需要加上--whole-archive链接选项,导致会使得我的目标文件(一个动态库)在原本的基础上增大5-6M的体积,请问有没有什么办法来降低tnn库大小? 我观察了一下隔壁mnn的库大小,他的arm64的cpu + opencl + express也就3M多,tnn最新代码编译出来的arm64动态库都有6M多了,这多出来的几M具体是什么内容呢

bolt的开发人员你们好,我在使用的过程中遇到如下问题,希望你们可以抽空帮忙看一下 问题1:在使用C API时,我发现并没有多少示例代码,而且我根据API也没有发现设置运行时浮点精度的方式(即模型为fp32的,但是按照fp16的精度计算),难道只有将模型转换为fp16的才能跑fp16代码吗? 问题2:如果只有fp16的模型才能跑fp16代码,那么请问如何设置输入,因为fp16的tensor也是fp16的,难道需要外部给进去fp16的数据吗?