EM-LLM: Human-Inspired Episodic Memory for Infinite Context LLMs
a year ago
- #ICLR-2025
- #LLM
- #episodic-memory
- EM-LLM将人类情景记忆与事件认知整合到大型语言模型中,以高效处理无限上下文长度。
- 该架构利用贝叶斯惊喜和图论边界细化方法,将标记序列组织成情景事件。
- 记忆检索结合了基于相似性和时间连续性的访问机制,实现类人类的信息回忆能力。
- 实验表明,在LongBench基准测试和扩展密码任务中,EM-LLM性能优于其他方法。
- 安装需配置Python包并通过YAML文件设置详细参数。
- 关键参数包括分块大小、内存块尺寸及检索设置,用于优化性能。
- 评估可通过脚本运行,适配不同硬件配置和基准测试需求。
- 相关论文因对LLM上下文处理及记忆整合的贡献被引用。