THU-MIG / torch-model-compression

针对pytorch模型的自动化模型结构分析和修改工具集,包含自动分析模型结构的模型压缩算法库

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

qat量化能够导出onnx,能够在tensorrt上进行部署吗?

scuizhibin opened this issue · comments

原理和torch的qat是一致的,都是额外加onnx node来存储量化信息,所以理论上肯定能在 trt 跑,只是仓库里目前的代码不一定跑得通,可能需要你看着改改

啊我也不咋了解torch的qat,只是按官网例子跑过几天,有两年没接触了没法解答