Hasty Briefsbeta

双语

Tiny Model, Big Logic: Large-Model Reasoning Ability in VibeThinker-1.5B

6 months ago
  • #Machine Learning
  • #Model Optimization
  • #Artificial Intelligence
  • 推出VibeThinker-1.5B——这个15亿参数的稠密模型挑战了'小模型缺乏强推理能力'的行业认知
  • 通过信号频谱原理(SSP)开发,采用两阶段多样性探索蒸馏和最大熵策略优化技术
  • 仅用7,800美元训练成本即实现超越DeepSeek R1和Magistral Medium等大模型的推理能力
  • 在AIME24/AIME25/HMMT25数学基准测试中,性能超越参数量400倍的DeepSeek R1
  • LiveCodeBench V6得分51.1分,超过Magistral Medium的50.3分及其基础模型的0分
  • 证明小模型可实现媲美大模型的推理能力,大幅降低AI研发成本,推动技术民主化