666DZY666 / micronet

micronet, a model compression and deploy lib. compression: 1、quantization: quantization-aware-training(QAT), High-Bit(>2b)(DoReFa/Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference)、Low-Bit(≤2b)/Ternary and Binary(TWN/BNN/XNOR-Net); post-training-quantization(PTQ), 8-bit(tensorrt); 2、 pruning: normal、regular and group convolutional channel pruning; 3、 group convolution structure; 4、batch-normalization fuse for quantization. deploy: tensorrt, fp32/fp16/int8(ptq-calibration)、op-adapt(upsample)、dynamic_shape

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

想问一下wbwtab和wqaq的区别是什么?

myzhuang opened this issue · comments

感谢大佬的分享,帮助很大。目前看代码有几个疑惑。
想问一下wbwtab和wqaq的区别是什么?看不懂名称的缩写。
还有就是wbwtab下的代码和wqaq/iao代码结构比较相似,区别在哪里?
另外,想知道iao是哪一篇文章的方法?能否提供一下想学习。
目前刚刚入门量化很多不懂,希望大佬能解答一下,谢谢!

commented

1、wbwtab和wqaq 分别是 低位(三/二值)和高位量化,可参考 代码结构 示意图;
2、iao,https://arxiv.org/abs/1712.05877

大佬你好,wqaq中的dorefa我用了-w_bits 16 --a_bits 16和-w_bits 8 --a_bits 8和-w_bits 4 --a_bits 4,为啥保存下来的模型都是一样的?