Hasty Briefsbeta

双语

Theoretical Analysis of Positional Encodings in Transformer Models

a year ago
  • #transformer-models
  • #positional-encodings
  • #machine-learning
  • 位置编码在Transformer模型中至关重要,它使模型无需循环结构即可处理序列数据。
  • 该论文提出了一个理论框架,用于分析不同位置编码方法(正弦编码、学习编码、相对位置编码、ALiBi)。
  • 通过函数逼近定义表达能力,并利用Rademacher复杂度建立泛化边界。
  • 提出了基于正交函数(小波、勒让德多项式)的新型编码方法。
  • 基于正交变换的编码在泛化能力和外推性能上优于传统正弦编码。
  • 这项研究为Transformer在自然语言处理、计算机视觉等领域的架构设计提供了理论指导。