Hasty Briefsbeta

双语

Universal pre-training by iterated random computation

a year ago
  • #Machine Learning
  • #Pre-training
  • #Algorithmic Complexity
  • 探索利用随机生成数据进行模型预训练
  • 基于算法复杂度和Solomonoff归纳的理论论证
  • 实验证据表明合成数据预训练可实现零样本学习
  • 模型规模扩大时性能提升,并可迁移至真实数据
  • 预训练后进行微调可提升收敛性和泛化能力