Llama 3低比特量化性能下降显著!全面评估结果来了|港大北航ETH llama 3 70b测试 llama 3性能
admin
2024-04-27 19:53:56
0

QHT 投稿
量子位 | 公众号 QbitAI

大模型力大砖飞,让LLaMA3演绎出了新高度:

超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。



与此同时,在实际应用层面上,另一个热点话题也浮出水面:

资源有限场景下,LLaMA3的量化表现又会如何?

香港大学、北京航空航天大学、苏黎世联邦理工学院联合推出了一项实证研究,全面揭示了LLaMA3的低比特量化性能。



研究人员使用现有的10种训练后量化和LoRA微调方法,评估了LLaMA3在1-8比特和各种评估数据集上的结果。他们发现:

尽管性能令人印象深刻,LLaMA3在低比特量化下仍然遭受了不可忽视的退化,特别是在超低位宽上



项目已在GitHub上开源,量化模型也已登陆HuggingFace。

具体来看实证结果。

轨道1:训练后量化

表1和表2中分别提供了LLaMA3-8B和LLaMA3-70B在8种不同的PTQ方法下的低比特性能表现,覆盖了从1比特到8比特的广泛比特宽度。

1.低比特权重

其中,Round-To-Nearest (RTN) 是一种基本的舍入量化方法。

GPTQ是当前最有效率和有效的仅限权重的量化方法之一,它利用量化中的误差补偿。但在2-3比特下,当量化LLaMA3时,GPTQ会导致严重的准确性崩溃。

AWQ采用异常通道抑制方法来降低权重量化的难度,而QuIP通过优化矩阵计算来确保权重和Hessian之间的不一致性。它们都能保持LLaMA3在3比特时的能力,甚至将2比特量化推向有希望的水平。

2.超低比特权重

最近出现的二值化LLM量化方法实现了超低比特宽度LLM权重压缩。

PB-LLM采用混合精度量化策略,保留一小部分重要权重的全精度,同时将大部分权重量化为1比特。

DB-LLM通过双重二值化权重分割实现高效的LLM压缩,并提出偏差感知蒸馏策略以进一步增强2比特LLM性能。

BiLLM通过显著权重的残差逼近和非显著权重的分组量化,进一步将LLM量化边界推低至1.1比特。这些为超低比特宽度专门设计的LLM量化方法可以实现更高精度的量化LLaMA3-8B,在⩽2比特时远远超过如GPTQ、AWQ和QuIP等方法,在2比特(甚至在某些情况下3比特)下的表现。

3.低比特量化激活

还通过SmoothQuant对量化激活进行了LLaMA3评估,SmoothQuant将量化难度从激活转移到权重,以平滑激活异常值。评估显示,SmoothQuant可以在8比特和6比特的权重和激活下保留LLaMA3的准确性,但在4比特时面临崩溃。





轨道2:LoRA微调量化

在MMLU数据集上,对于LoRA-FT量化下的LLaMA3-8B,最显著的观察是,在Alpaca数据集上低秩微调不仅不能补偿量化引入的错误,甚至使性能下降更加严重。

具体来说,各种LoRA-FT量化方法在4比特下获得的量化LLaMA3性能,比没有使用LoRA-FT的4比特对应版本要差。这与LLaMA1和LLaMA2上的类似现象形成鲜明对比,在LLAMA1和LLAMA2中,4比特低秩微调量化版本甚至能轻松超过MMLU上的原始FP16对应版本。

根据直观分析,这一现象的主要原因是由于LLaMA3强大的性能得益于其大规模的预训练,这意味着原始模型量化后的性能损失不能通过在一小部分低秩参数数据上进行微调来补偿(这可以被视为原始模型的一个子集)。

尽管量化导致的显著下降不能通过微调来补偿,但4比特LoRA-FT量化的LLaMA3-8B在各种量化方法下显著优于LLaMA1-7B和LLaMA2-7B。例如,使用QLoRA方法,4比特LLaMA3-8B的平均准确率为57.0(FP16: 64.8),超过4比特LLaMA1-7B的38.4(FP16: 34.6)18.6,超过4比特LLaMA2-7B的43.9(FP16: 45.5)13.1。这表明在LLaMA3时代需要一种新的LoRA-FT量化范式。

在CommonSenseQA基准测试中也出现了类似的现象。与没有使用LoRA-FT的4比特对应版本相比,使用QLoRA和IR-QLoRA微调的模型性能也有所下降(例如,QLoRA平均下降2.8% vs IR-QLoRA平均下降2.4%)。这进一步展示了在LLaMA3中使用高质量数据集的优势,而且通用数据集Alpaca并没有对模型在其他任务中的性能作出贡献。

结论

这篇论文全面评估了LLaMA3在各种低比特量化技术(包括训练后量化和LoRA微调量化)中的性能。

此研究发现表明,尽管LLaMA3在量化后仍然展现出优越的性能,但与量化相关的性能下降是显著的,甚至在许多情况下可以导致更大的下降。

这一发现突显了在资源受限环境中部署LLaMA3可能面临的潜在挑战,并强调了在低比特量化背景下增长和改进的充足空间。通过解决低比特量化引起的性能下降,预期后续的量化范式将使LLMs在较低的计算成本下实现更强的能力,最终推动代表性的生成式人工智能达到新的高度。

论文链接:
https://arxiv.org/abs/2404.14047

项目链接:
https://github.com/Macaronlin/LLaMA3-Quantization
https://huggingface.co/LLMQ

— 完 —

相关内容

热门资讯

40多年来广东制造爆款频出,董... “质量关乎两个生命:消费者的生命和企业的生命,广货的底气正是来自这份刻进骨子里的质量意识。”1月14...
世界经济论坛年度风险报告:全球... 财联社1月14日讯(编辑 史正丞)世界经济论坛周三发布的全球风险报告显示,涵盖关税、制裁等工具的地缘...
原创 果... 当地时间1月12日,特朗普在“真实社交”上甩出一记经贸重拳,宣称对所有与伊朗有商业往来的国家加征25...
新侨双创在上海 | 赴港上市,... 科技企业出海上市,是链接全球资本、拓展国际市场的关键步伐。香港作为联通内地与世界的“超级联系人”,正...
“十四五”·国企蝶变⑧ | 促... 编者按: 2025年是“十四五”收官之年,五年来,从布局战略性新兴产业到提升科技创新主体地位,从深化...
蓝特光学:拟向特定对象增发募资... 每经AI快讯,蓝特光学1月14日晚间发布公告称,本次向特定对象发行股票方案已经公司于2026年1月1...
携程发布公告回应立案调查 2026年1月14日,携程黑板报发布公告回应了关于“涉嫌滥用市场支配地位实施垄断”的立案调查事件。 ...
龙虎榜 | 深南东路、宁波桑田... 1月14日,A股成交额3.99万亿元再创历史最高记录,超2700股上涨。医疗服务、AI应用、算力硬件...
加拿大总理今起访华,聚焦能源合... 进入2026年之后,中国主场外交迎来密集议程。继韩国总统李在明之后,加拿大政府首脑也到访中国。 应国...
上市前融资轮的兴起 来源:环球市场播报 作者:劳拉・曼达罗 随着越来越多初创企业逐步迈向公开上市,曾在 2020 至 ...
抖音信息流广告怎么样? 刷着抖音,手指一滑,一个教做脆皮五花肉的视频让你瞬间流下口水。看完才意识到,这原来是某个新厨电品牌的...
原创 特... 据俄罗斯卫星通讯社1月14日报道,特朗普通报全球,高调宣布中国成了美国的“最大纳税方”之一,仿佛美国...
谁能“撬动”零负债人群主动消费... 文 | 闻旅派,作者 | Kylin,编辑 | Sette 最近有个新词儿悄悄上了热搜,没爆,但烫...
GEO概念与国产大模型共振,A... 1月14日,AI应用、软件龙头再度领涨市场。软件龙头ETF(159899)盘中大涨超7%,成分股用友...
“母退子上”的奇招见效,岚图汽... 当港股交易屏幕上,一个代码悄然亮起,另一个代码黯然离场,中国汽车工业一场教科书式的资本“金蝉脱壳”正...
当家居消费走向情感价值:一场由... 文/乐居财经 靳文雨 当下的中国家居行业,正处于增量触顶、存量崛起的关键转折期。国家统计局2025年...
原创 没... Put her in a bikini. 作者 I 薛星星 编辑 I 蒋浇 封面 I Gemini ...
机构席位买入1317.94万 ... 每经讯,2026年1月14日,北交所上市公司大鹏工业(920091,收盘价:96.46元)登上龙虎榜...
人民日报关注!福州增加体育消费... 1月14日 《人民日报》聚焦福州 “改善型服务消费如何激发活力” 专栏刊发 《福建福州增加体育消费空...
医院IPTV领域实力厂商榜单:... 在医疗信息化与智慧养老产业快速发展的背景下,医院IPTV系统作为连接医患、优化服务流程的核心载体,其...