知名AI研究者深挖谷歌Gemma:参数不止70亿,设计原则很独特 谷歌ai专家完整视频 谷歌ai专家分析
admin
2024-02-29 11:18:27
0

机器之心报道

编辑:陈萍、杜伟

想要了解谷歌 Gemma 与 Llama 2、Mistral 有哪些异同吗?这篇文章值得一读。

就在几天前,开源大模型领域迎来了重磅新玩家:谷歌推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。



谷歌发布了包含两种权重规模的模型:Gemma 2B 和 Gemma 7B。尽管体量较小,但 Gemma 已经「在关键基准测试中明显超越了更大的模型」,包括 Llama-2 7B 和 13B,以及风头正劲的 Mistral 7B。与此同时,关于 Gemma 的技术报告也一并放出。



相信大家已经对 Gemma 的相关内容进行了系统研究,本文知名机器学习与 AI 研究者 Sebastian Raschka 向我们介绍了 Gemma 相比于其他 LLM 的一些独特设计原则。

Raschka 首先从模型性能展开,他表示看过技术报告的小伙伴可能都有一个疑问,是什么让 Gemma 表现如此出色?论文中没有明确说明原因,Sebastian Raschka 认为可以从下面两点得出结论:

首先是词汇量大,Gemma 词汇量达到 256000 个单词,相比之下,Llama 的词汇量为 32000 个单词;其次是训练数据集达 6 万亿 token,作为对比,Llama 仅接受了其中三分之一的训练。

在架构方面,Raschka 列举了 Gemma 与 LLama 2 7B 和 OLMo 7B 的架构概览。



在模型大小上,Raschka 表示 Gemma 2B 有多查询注意力,而 Gemma 7B 没有。另外,与 Llama 2 相比,Gemma 7B 具有相对较大的前馈层,尽管其层数较少(28 VS 32),但 Gemma 中的参数数量却相当大。

Raschka 猜测 Gemma 7B 实际上总共有 93 亿个参数,如果考虑到权重共享(Weight tying)的话,则有 85 亿个参数。权重共享意味着模型在输入嵌入和输出投影层中共享相同的权重,类似于 GPT-2 和 OLMo 1B(OLMO 7B 的训练没有权重共享)。

归一化层

另一个引人注目的细节是以下出自 Gemma 论文中的段落。

归一化位置。谷歌对每个 transformer 子层的输入和输出进行归一化,这与单独归一化输入或输出的标准做法不同。谷歌使用 RMSNorm 作为归一化层。

乍一看,看起来像 Gemma 在每个 transformer 块之后都有一个额外的 RMSNorm 层。但是,通过查看「keras-nlp」项目的官方代码实现,原来 Gemma 仅仅使用了 GPT-2、Llama 2 等其他 LLM 使用的常规预归一化方案,具体如下图所示。



GPT、Llama 2 和其他 LLM 中典型的层归一化位置,Gemma 中没有什么新东西。来源:https://github.com/rasbt/LLMs-from-scratch

GeGLU 激活

Gemma 与其他架构之间的一大区别是它使用了 GeGLU 激活,而 GeGLU 激活是在 2020 年的谷歌论文《GLU Variants Improve Transformer》中提出的。



论文地址:https://arxiv.org/pdf/2002.05202.pdf

GeLU 全称为高斯误差线性单元(Gaussian Error Linear Unit),它是一个激活函数,越来越多地被作为传统 ReLU 的替代方案。GeLU 的流行得益于它有能力引入非线性特征,并允许为负输入值执行梯度传播,这解决了 ReLU 的一大局限,完全阻断了负值。

现在,作为 GeLU 的门线性单元变体,GeGLU 的激活被分割为两部分,分别是 sigmoid 单元和线性映射单元(它与 sigmoid 单元的输出逐元素相乘),具体如下图所示。



GeLU 与 ReLU 激活函数图示比较,来源:https://github.com/rasbt/LLMs-from-scratch

同时,GeGLU 与 Llama 2、Mistral 等其他 LLM 使用的 SwiGLU 激活类似。唯一的区别是 GeGLU 使用的基础激活是 GeLU 而不是 Swish。



下图展示了 GeLU(GPT-2)、SwiGLU(Llama 2)和 GeGLU(Gemma)的伪代码。



需要注意,与使用 GeLU(仅线性)的常规前馈模块相比,使用 SwiGLU 和 GeGLU 的前馈模块各多了一个线性层(分别是 linear_1 和 linear_2)。不过,在 SwiGLU 和 GeGLU 前馈模块中,linear_1 和 linear_2 通常通过将单个线性层分割为两部分而获得,因此不会增加参数规模。

那是否 GeGLU 就比 SwiGLU 强呢?并没有消融实验来证实这一点。Raschka 猜测谷歌选择使用 GeGLU,只是为了让 Gemma 与 Llama 2 略有不同。

举例而言,Gemma 为 RMSNorm 层添加了 + 1 的偏移量,并通过隐藏层维数的开立方根来归一化嵌入。Gemma 论文中没有提及或讨论这些细节,所以它们的重要性也不清楚。

结论

对于开源 LLM 而言,Gemma 做出了非常棒的贡献,展示了 7B 参数规模也能成就强大的模型,并有潜力在真实世界的用例中取代 Llama 2 和 Mistral。

此外,目前 7B 大小规模的开源模型已经有很多了,因此 Gemma 2B 更加有趣,它可以轻松地在单个 GPU 上运行。当然,Gemma 2B 与 2.7B 大小的 phi-2 之间的对比也将会很有趣。

参考链接:https://lightning.ai/lightning-ai/studios/understanding-using-and-finetuning-gemma

相关内容

热门资讯

海南自贸港“样板间”抢抓开放机... 中新网海口5月16日电 (记者 王子谦)洋浦经济开发区是海南自贸港“样板间”,也是外界观察自贸港建设...
净利增速2.98%,违规频发!... 近期,中信银行2025年年报与2026年一季报接连公布,报告显示,中信银行总资产站稳10万亿元台阶,...
原创 放... 全网的人几乎都在挤破头往海外大都市扎,可有一个女博主,却偏偏反着来。她拥有五百多万粉丝,本可以继续在...
原创 在... 在中国,买卖虚拟货币,到底行不行? 这个问题,很多人心里都犯嘀咕。有人说,法无禁止即可为;也有人说,...
龙粤慈善事业高质量发展与互联网... 近日,为加快培育数字慈善新生态,助力“善行边疆”活动走深走实,“龙粤慈善事业高质量发展与互联网公开募...
黄金大局已定:不出意外的话,2... 在投资领域,贵金属一直是备受关注的资产类别,尤其是黄金,其价格走势和投资价值牵动着无数投资者的心。随...
后巴菲特时代,伯克希尔哈撒韦新... 【导读】伯克希尔哈撒韦最新持仓公布!清仓亚马逊,建仓达美航空 中国基金报记者 张舟 伯克希尔哈撒韦“...
布朗46分胡金秋20+8 广厦... 【搜狐体育战报】北京时间5月16日CBA季后赛,主场作战的浙江浙商证券以111-102击败深圳马可波...
美联储任命鲍威尔担任临时主席 美国联邦储备委员会理事会5月15日发布公告,任命杰罗姆·鲍威尔担任美联储临时主席,直至凯文·沃什宣誓...
李从悠:白癜风患者,夏季防汗疹... 夏季高温多雨,白癜风患者皮肤屏障受损,出汗后汗液无法及时蒸发,易堵塞毛孔,诱发汗疹(热疹),汗疹引发...
最低涨价60元!4款非标茅台酒... 在飞天茅台涨价之后,部分非标茅台酒也提了价。 5月16日早间,贵州茅台自营渠道i茅台发布公告,宣布对...
邯郸10亿共享智造基金落地,撬... 图片为AI生成 据天眼查App显示,近日邯郸市共享智造股权投资基金(有限合伙)正式登记成立,总出资额...
AI制药行业深度:行业概况、市... 一、AI制药行业概况 1、AI药物研发概述 AI制药是指将NLP、深度神经网络,生成模型等AI技...
世界杯在即:国产彩电的出海故事... 球还没看,彩电先破防了 撰文/ 孟会缘 编辑/ 陈邓新 排版/ Annalee 国产彩电品牌,正深陷...
医疗健康领域投融资日报(5月1... 据亿欧数据统计,昨日(2026年5月15日)共披露16起投融资事件,涉及15家国内企业,1家国外企业...
深圳中创商业咨询携手海旗控股集... 海旗控股集团旗下宁波锦曼程新材料有限公司,自创立以来始终深耕高分子材料领域,秉承推动行业创新与可持续...
原创 关... 前言 大家好,我是老金。 国际地缘博弈的棋盘上,从来没有绝对的秘密,只有刻意或无意的战略试探,近期...
原创 欧... 今天来给大家聊一下最近的欧盟,自从特朗普说要来访华,欧洲的动作有点让人看不懂。从四月中旬到五月初,欧...
心系投资者 携手共行动 ——人... 为落实监管工作要求,切实维护金融消费者合法权益,在 “5・15 全国投资者保护宣传日” 当天,人保寿...
黄仁勋打卡蜜雪冰城 同款产品销... 财联社5月16日讯(记者 沈娇娇)5月15日上午,英伟达CEO黄仁勋现身北京南锣鼓巷,并且进入一家蜜...