zhenhao Shang

Results 4 issues of zhenhao Shang

用paddleslim的ACT自动压缩工具对yolov7进行压缩之后,得到的模型虽然保存的参数是int8的范围,但是类型是float,也就是压缩前后的onnx文件体积没变,然后要把这个onnx模型部署在昇腾的开发板Atlas 500上。我的操作如下: 首先把onnx模型转化为昇腾支持的om模型,转化命令为: atc --framework=5 --model=./model/yolov7.onnx --input_shape="images:1,3,640,640" \ --output=./model/yolov7 --compression_optimize=./scripts/compression_opt.config --soc_version=Ascend310 \ --log=info --insert_op_conf=./scripts/aipp.cfg 这里的compression_optimize参数是相当于加了一个后训练量化PTQ,把float的参数转为int8,之后按照昇腾官方例子程序,链接如下: https://gitee.com/ascend/samples/tree/master/inference/modelInference/sampleYOLOV7 按照链接中的内容执行推理,输出的图片上一个预测框都没有。 按照相同的方法把未量化的onnx模型部署在Atlas 500上,可以正常输出,该onnx转om模型的命令为: atc --framework=5 --model=./model/yolov7.onnx --input_shape="images:1,3,640,640" \ --output=./model/yolov7 --soc_version=Ascend310 \ --log=info --insert_op_conf=./scripts/aipp.cfg 如果把未量化的onnx模型(大小和量化后一样)加上PTQ转化一下,命令如下(与第一个相同):...

There are three versions here, corresponding to mamba2.py, mamba2_simple.py, and ssd_minimal.py. The first two versions require the mamba_ssm library. What are the differences between them? Does this mean that the...

你好,对于论文里的transform3,当第二个卷积核的pad填充为第一个卷积核的bias的时候可以通过transform3恒等转换,我想请教一下大佬,用bias填充这一点是怎么推出来的,有相关的公式吗

使用xcode测试速度不符,进行了多次测试,取最后一次稳定的结果如下图所示: 这里速度明显过慢,我发现执行多次推理的过程中第一次推理的时间过长,甚至达到10ms,把这个时间用来计算均值显然不合理,所以在xcode中如何避免这一问题,文中又是怎么做的呢