Hasty Briefsbeta

双语

EM-LLM: Human-Inspired Episodic Memory for Infinite Context LLMs

a year ago
  • #ICLR-2025
  • #LLM
  • #episodic-memory
  • EM-LLM将人类情景记忆与事件认知整合到大型语言模型中,以高效处理无限上下文长度。
  • 该架构利用贝叶斯惊喜和图论边界细化方法,将标记序列组织成情景事件。
  • 记忆检索结合了基于相似性和时间连续性的访问机制,实现类人类的信息回忆能力。
  • 实验表明,在LongBench基准测试和扩展密码任务中,EM-LLM性能优于其他方法。
  • 安装需配置Python包并通过YAML文件设置详细参数。
  • 关键参数包括分块大小、内存块尺寸及检索设置,用于优化性能。
  • 评估可通过脚本运行,适配不同硬件配置和基准测试需求。
  • 相关论文因对LLM上下文处理及记忆整合的贡献被引用。