wzyforgit

Results 75 comments of wzyforgit

你可以试一下啊,炸了再说

转到onnx之前是什么格式的?

> > 转到onnx之前是什么格式的? > > model.pth 通过pytorch自带的onnx.export 转成model.onnx > > model.pth to model.onnx : torch.onnx.export(model.pth, torch.zeros(size=(1,3,750,500),device='cpu', detype=torch.float32), model.onnx, export_params=True, verbose=True, input_names=['input_img'], output_names=['r', 'g', 'b'], opset_version=11) 所以说不行啊,pytorch要用PNNX转NCNN,现在pytorch还用ONNX转NCNN已经没有售后了

> > > > 转到onnx之前是什么格式的? > > > > > > > > > model.pth 通过pytorch自带的onnx.export 转成model.onnx > > > model.pth to model.onnx : torch.onnx.export(model.pth, torch.zeros(size=(1,3,750,500),device='cpu', detype=torch.float32), model.onnx, export_params=True, verbose=True,...

> > > > > > 转到onnx之前是什么格式的? > > > > > > > > > > > > > > > model.pth 通过pytorch自带的onnx.export 转成model.onnx > > > > >...

当时也是转出来一堆的aten::xxxxx,看着简直就是地狱绘卷

int8量化有,uint8是什么鬼

> unsigned int8量化。很多模型用Int8量化后精度损失很大,用Uint8会好很多。 emmmmmmmm,这个就不知道怎么玩了,等大佬来解答吧=。=

onnxsim 的时候指定一下输入shape试试?