wjh
wjh
您好,你有新的理解吗,我也有这个问题,还有就是为什么裁剪为511大小的图片,我看到有的追踪裁剪为271大小的,请您不吝赐教。🙏
> > 我在C308板子上面跑自己的模型,cpu可以运行,切换到amlogic_npu 之后,有下面的报错  (模型数据的维度没有问题,torch版本的模型在服务器侧可以正常推理),转换成端侧模型,在c308板子上跑的时候,有区别 请问两位有没有什么建议的解决思路? @pigpigfang @yingshengBD > > 1,不建议使用amlogic的文档,这个ddk很久没升级了,支持算子较少,建议使用芯原timvx的文档,按照那个流程。 2,日志截取全一点,应该不是挂在这里 3,不管是amlogic ddk的方式 还是芯原timvx的方式,模型都必须量化int8 您好,我在转化自己的onnx模型到paddlelite的时候,发现当我使用--lite_valid_place=amlogic_npu的时候,会出现不支持的算子,但是当我改为--lite valid place=verisilicon_timvx就没问题了,请问这两者之间的区别是什么。 我的板子是荣品的a311d,当我拿着“--lite valid place=verisilicon_timvx”转化后的模型,可以直接在npu上跑吗,需不需要量化。请大佬不吝赐教。  
为什么我在运行test.py的时候走完了,60it之后,就会报错。调试的话发现ar_result数据都是nan  
请各位大佬们不吝赐教,感谢!
i have the same question
我也有这个问题paddlelite 2.12

好的,感谢您的回答,希望您们尽快完成量化