DefTruth
DefTruth
> 我芯片不是M1,我详细看了那篇issue,用最后的方法也还是不行,安装了ffrmpeg还是不行 说明ffmpeg已经链接上了,报的是缺少libxcb这个库,一般mac下会有安装这个库。你的问题和另一个issue是一样的,解决方案请参考: * https://github.com/DefTruth/lite.ai.toolkit/issues/236
应该不行的吧,两个操作系统都不一样,windows下需要重新编译,而且还比较麻烦。
文档有说明,这个仓库只能在MacOS下跑,如果要在windows下跑,需要编译配置好lite.ai.toolkit,请参考配置教程: * https://github.com/DefTruth/lite.ai.toolkit/issues/207
> > > > 请问大佬,m1的macos能编译吗 不支持M1
是的。MNN是可以用--fp16来得到更小体积的模型文件的,而且可以直接调用,就和调用32位的模型一样,不需要做什么代码逻辑的改动。就是要注意一下最后输入的结果是32还是16的,用netron打开看一下。我记得是输入输出都是32,然后MNN用了一些额外的节点来做32->16->32的转换
> 那例如 rvm_mobilenetv3_fp32-480-640.mnn , 这个后面的 tenser 的宽高是怎么设置的呢? 这个比较复杂,可以去看看我写的一篇文章: * #19
先转静态ONNX->再转MNN
不太了解你新加的这段逻辑😂
看提示是说你的mnn session起的有问题,最好不要作为函数的局部变量结果返回,因为返回后的session可能会指向一段被释放的内存,因为你在函数内生成的内容,比如session,在退出函数作用域后可能会被c++的作用域机制释放了。最好作为一个类的全局属性,或者一个cpp文件内的全局属性。
#15 看这个讨论,可能是由于cpu数据传输的原因