ziwang-com / zero-lora

zero零训练llm调参

Home Page:http://www.m-f.vip

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

通过修剪研究性能提升LLM-Pruner

ziwang-com opened this issue · comments

https://github.com/horseee/LLM-Pruner
为什么选择LLM-Pruner
与任务无关的压缩:压缩的LLM应保留其作为多任务求解器的原始能力。
更少的训练语料库:在这项工作中,我们只使用50k公开可用的样本(羊驼)来训练LLM。
高效压缩:修剪 3 分钟,训练后 3 小时。(你可以让它更长)
自动结构修剪:以最少的人力修剪新的LLM(正在进行中)。
LLM-Pruner:论大型语言模型的结构修剪[论文]
马欣银, 方公凡, 王新潮
新加坡国立大学

arxiv版本将很快发布。