wzyforgit
wzyforgit
你可以试一下啊,炸了再说
转到onnx之前是什么格式的?
> > 转到onnx之前是什么格式的? > > model.pth 通过pytorch自带的onnx.export 转成model.onnx > > model.pth to model.onnx : torch.onnx.export(model.pth, torch.zeros(size=(1,3,750,500),device='cpu', detype=torch.float32), model.onnx, export_params=True, verbose=True, input_names=['input_img'], output_names=['r', 'g', 'b'], opset_version=11) 所以说不行啊,pytorch要用PNNX转NCNN,现在pytorch还用ONNX转NCNN已经没有售后了
> > > > 转到onnx之前是什么格式的? > > > > > > > > > model.pth 通过pytorch自带的onnx.export 转成model.onnx > > > model.pth to model.onnx : torch.onnx.export(model.pth, torch.zeros(size=(1,3,750,500),device='cpu', detype=torch.float32), model.onnx, export_params=True, verbose=True,...
> > > > > > 转到onnx之前是什么格式的? > > > > > > > > > > > > > > > model.pth 通过pytorch自带的onnx.export 转成model.onnx > > > > >...
当时也是转出来一堆的aten::xxxxx,看着简直就是地狱绘卷
int8量化有,uint8是什么鬼
> unsigned int8量化。很多模型用Int8量化后精度损失很大,用Uint8会好很多。 emmmmmmmm,这个就不知道怎么玩了,等大佬来解答吧=。=
它里面就是个fopen,只要fopen能打开就行
onnxsim 的时候指定一下输入shape试试?