深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

admin 2025年5月9日16:09:47评论4 views字数 3068阅读10分13秒阅读模式

本文授权转载自学术平台 PaperWeekly,公众号ID:paperweekly

这是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。

不知道大家有没有留意到前段时间的《Transformers without Normalization》[1]?这篇论文试图将 Transformer 模型中的 Normalization 层用一个 Element-wise 的运算 DyT 替代,以期能提高速度并保持效果。
这种基础架构的主题本身自带一点吸引力,加之 Kaiming He 和 Yann LeCun 两位大佬挂名,所以这篇论文发布之时就引起了不少围观,评价也是有褒有贬。
无独有偶,近期的一篇新论文《The Mathematical Relationship Between Layer Normalization and Dynamic Activation Functions》[2] 从梯度分析和微分方程的视角解读了 DyT,并提出了新的替代品。个人感觉这个理解角度非常本质,遂学习和分享一波。
深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

写在前面

DyT 全称是 Dynamic Tanh,它通过如下运算来替代 Normalization 层:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

其中  都是可学参数, 是 Normalization 层本来就有的,所以这里的关键是用  替代了 Normalize 运算。 是逐元素的运算,免除了均值、方差这两个统计量的计算。

关于 DyT,笔者曾在知乎《如何评价 Meta 新论文 Transformers without Normalization?》[3] 发表过一些看法,简单来说就是不大看好。

理由是 Normalization 无脑地稳定了模型的前向传播,那么就留了更多的自由度和可能性给模型的其他方面(比如效果),所以笔者不认为比有 Normalization 更简化的通用操作能实现更好的效果(No Free Lunch)。

事实上早在 2021 年的《浅谈 Transformer 的初始化、参数化与标准化》[4] 我们就讨论过去掉 Normalization 这个话题,相关工作有 SkipInit [5]、ReZero [6]、Fixup [7] 等。

当时笔者试了一些方案,发现它们即便在某些方面能够追平 Normalization,但仍会存在另一些方面的不足,比如预训练效果尚可,但微调效果较差等,所以就没再深究下去了。

因此,笔者现在对类似工作都只视为简化维度上的极限探索来欣赏,正如《nGPT: Normalized Transformer with Representation Learning on the Hypersphere》[8] 几乎将每一处能 Normalize 的地方都加上 Normalize 一样,都属于某个方向的极限探索。

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

梯度计算

当然,不看好归不看好,不妨碍我们的学习和分析。要想寻找 Normalization 的替代或者说近似,最直接的思路就是从梯度入手,因为深度学习说到底也就是前向传播和反向传播那点事,反向传播也就是求梯度,往往扮演着比较本质的角色。

接下来我们只考虑 RMS Norm,它的关键运算是:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

其中 ,以及:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

所以要求  的梯度,等价于求  的梯度,我们可以通过如下方式计算:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

比较复杂的地方是展开 

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

代入式(4)得:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

最后代回式(2)得:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
DyT现!

注意  都是一个向量,所以  是一个矩阵(雅可比矩阵)。现在我们考虑给 RMS Norm 找一个 Element-wise 近似,即每个分量是独立运算的:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

这个独立性意味着它的雅可比矩阵一定是对角阵!我们希望这个近似能尽可能保留 RMS Norm 的梯度,所以我们考虑保留式(7)的对角线部分:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

如果我们进一步假设  是常数,那么可以直接求解上述微分方程得到:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

这样我们就得到了 DyT 的 T(),其中求解过程选择的初值条件为 

DyT 相当于将前面的  吸收到  参数里,然后将括号内的  视为训练参数 ,缓解“ 是常数”这一假设带来的限制。不过在笔者看来,显式保留  可能会更有价值,只要将  部分视为可训练参数就好。

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
DyISRU

不知道大家有没有留意到,对于 RMS Norm 我们恒有 ,所以方程(9)的  我们可以换成 ,从而得到:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

这是一个只有  的方程,免除了对  的近似处理。求解该方程得:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

其中C是任意常数。这种形式有个名字叫做 ISRU(Inverse Square Root Unit,我们之前也叫过 SoftSign),出自论文《Improving Deep Learning by Inverse Square Root Linear Units (ISRLUs)》 [9]。如果将 C 视为可训练参数,那么就可以类比 DyT 称为 DyISRU(Dynamic ISRU)。

从梯度(7)到方程(9)再到(11)来看,DyISRU 是我们用 Element-wise 函数能做到的最好结果,因为除对角线假设外没有再加额外近似了。从形式上看,DyISRU 其实也比 DyT 更直观,因为  即 ,既然要寻求 Element-wise 的运算,只好将  换成  了,最后加 C 乘  算是平滑操作:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
相关工作

 和 ISRU 都可以视为符号函数的光滑近似,而基于它们,我们可以构建  运算的光滑近似,例如:

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

由此,我们也可以将 DyT 理解为引入(光滑的) 操作来防止前向传播的爆炸,从而稳定模型。

 提出自 Google 的 Gemma2 [10],当时的用途是加在 Softmax 前的 Attention Logits 矩阵上,防止出现过大的 Logits 值。然而,我们实测中发现,尽管  之后的 Logits 不会爆炸,但  之前的 Logits 仍有爆炸风险,所以用  防止 Logits 爆炸纯粹是将问题换了个出处,治标不治本。

不知道是否 Google 后来也意识到了这个问题,他们在最新的 Gemma3 [11] 中,选择去掉  而改用 QK-norm。我们自己的实验也显示,QK-norm 可以更好地抑制 Attention Logits 的增长。这个改动和结论实际上再次间接传递了一个悲观信号:DyT 等  类操作在实践中很难完全取代 Normalization。

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
文章小结

本文从梯度近似角度来分析什么样的 Element-wise 的激活函数才能(一定程度上)替代 Normalization 层,从中我们可以推出 DyT 以及新的结果。

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

参考文献

深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

[1] https://papers.cool/arxiv/2503.10622

[2] https://papers.cool/arxiv/2503.21708

[3] https://www.zhihu.com/question/14925347536/answer/124434065689

[4] https://kexue.fm/archives/8620

[5] https://papers.cool/arxiv/2002.10444

[6] https://papers.cool/arxiv/2003.04887

[7] https://papers.cool/arxiv/1901.09321

[8] https://papers.cool/arxiv/2410.01131

[9] https://papers.cool/arxiv/1710.09967

[10] https://papers.cool/arxiv/2408.00118

[11] https://papers.cool/arxiv/2503.19786

原文始发于微信公众号(北邮 GAMMA Lab):深度学习基础架构革新?通过梯度近似寻找Normalization的替代品

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年5月9日16:09:47
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   深度学习基础架构革新?通过梯度近似寻找Normalization的替代品https://cn-sec.com/archives/4046567.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息