Hasty Briefsbeta

双语

LLM Neuroanatomy II: Modern LLM Hacking and Hints of a Universal Language?

2 months ago
  • #LLM
  • #Transformer
  • #Neuroanatomy
  • 2024年年中发现的RYS(重复自身)方法,通过复制大语言模型的中间层来提升性能,且无需调整权重或重新训练。
  • 在Qwen3.5-27B上的实验证实,中间层复制对现代模型有效,其中复制中间层带来的性能提升最为显著。
  • 模型内部结构分为三个阶段:编码阶段(0-5层)、推理阶段(约10-50层)和解码阶段(约55-64层)。
  • 跨语言实验表明,模型的内部表征更关注内容而非语言,暗示存在一种通用的'思维空间'。
  • 热力图显示,复制中间层(如24-35层)可同时提升数学和情商表现,但更大区块的复制会产生收益递减效应。
  • 单层重复能提高数学能力,但对情商影响甚微,这说明多层神经回路更有效。
  • 研究尝试用束搜索和代理模型探索组合配置,但连续的中间层区块仍是最优方案。
  • 帕累托前沿分析确定了最佳配置,其中仅复制33层就能以最小开销显著提升情商表现。
  • Qwen3.5-27B的RYS变体已发布在HuggingFace平台,提供性能与计算成本的不同权衡方案。
  • 该发现表明Transformer的推理过程由离散功能回路组织,这是各类模型的共性特征。