pytorch_quantization
pytorch_quantization copied to clipboard
A pytorch implementation of dorefa quantization
你好,我想问一下,ResNet18在位宽为4时top5精度已经下降了接近了2%了。那将数据位宽提高到6,或者8效果如何呢。谢谢!
大佬你好,请问做8bit量化的时候,转成量化模型quant_model的时候,为什么权值是小数吖,比如是0.4256之类的,为什不是0-255之间的整数呢?还是说我哪儿操作步骤有问题 恳请大佬教做人,刚入门量化的小白,感激不尽!
你好,我想问一下,量化训练完的模型,支持转换成onnx吗?
activation quantization is not same In the paper : x(real) is in range[0 ~ 1] : clamp(input, 0, 1) then, quantize(x) In your implementation: clamp(input * 0.1, 0, 1)
量化后的模型大小
你好,我想问下这样量化之后的模型大小是不会变的吗
请问这个算法对于yolov5s做4bit量化有效果吗,如果有的话,训练epoch大概需要多少,还有可以使用什么方法加快训练呢