ziwang-com / AGM

AGM阿格姆:AI基因图谱模型,从token-weight权重微粒角度,探索AI模型,GPT\LLM大模型的内在运作机制。

Home Page:http://www.m-f.vip

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

SmoothQuant高效平滑量化

ziwang-com opened this issue · comments

https://github.com/leliyliu/smoothquant

SmoothQuant:针对大型语言模型的准确高效的训练后量化 [论文] [幻灯片]
如果您有兴趣获得更新,请在此处注册以获取通知!

image

intuition

抽象
大型语言模型 (LLM) 具有出色的性能,但会占用大量计算和内存。量化可以减少内存并加速推理。但是,对于超过1000亿个参数的LLM,现有方法无法保持准确性或无法在硬件上高效运行。我们提出了 SmoothQuant,这是一种免训练、精度保持和通用的训练后量化 (PTQ) 解决方案,可为 LLM 启用 8 位权重、8 位激活 (W8A8) 量化。 基于权重易于量化而激活不容易量化的事实,SmoothQuant 通过离线将量化难度从激活迁移到具有数学等效变换的权重来平滑激活异常值。SmoothQuant 能够对 LLM 中所有矩阵乘法的权重和激活进行 INT8 量化,包括 OPT-175B、BLOOM-176B、GLM-130B 和 MT-NLG 530B。SmoothQuant具有比现有技术更好的硬件效率。我们演示了 LLM 高达 1.56 倍的加速和 2 倍的内存减少,精度损失可以忽略不计。我们将SmoothQuant集成到FasterTransformer中,这是一个最先进的LLM服务框架,与FP16相比,GPU数量减少了一半,实现了更快的推理速度,从而可以在单个节点内提供530B LLM。我们的工作提供了一个交钥匙解决方案,可以降低硬件成本并使LLM**化。