Hasty Briefsbeta

双语

Domain Adaptation of Base Models + ShadowdarkQA Bench

a year ago
  • #Shadowdark
  • #LLM
  • #TTRPG
  • 开发自主LLM游戏大师的两种方法:快速(代理式)与慢速(亲身体验式)。
  • 目标在于理解模型能力并获得实践经验,而不仅仅是最终产品。
  • 从基础模型入手,融入TTRPG特定先验知识以提升规则理解能力。
  • 受算力限制选择千问3系列小模型(0.6B至14B参数规模)。
  • 选择Shadowdark而非DND因其规则简单、无知识负担且易验证。
  • 通过OCR技术将Shadowdark规则书转为结构化Markdown训练数据。
  • 构建Shadowdark QA测试集,含法术机制/玩家角色/怪物等分类。
  • 评估采用关键词匹配机制实现规则回忆的精准评分。
  • 源书初始训练提升效果但数值回忆表现欠佳。
  • 知识增强(10倍重述)使QA基准准确率提升至66.6%。
  • 下一步:助手调优以突破70%准确率门槛。