长期记忆
在人工智能和复杂软件的背景下,长期记忆(LTM)指的是在单个会话的即时操作环境之外,持久地存储和检索信息、经验和学习到的模式。与短期记忆或工作记忆不同,LTM 允许 AI 代理或系统在较长时期内维持对其环境、用户交互和过去决策的累积理解。
为了使人工智能系统从被动的工具转变为主动的智能伙伴,长期记忆至关重要。它支持个性化、跨多次交互的上下文保留,以及从历史数据中学习的能力。如果没有它,AI 在当前查询之后基本上会“忘记”所有内容,从而严重限制了其在真实世界持续应用中的实用性。
LTM 通常使用外部的、结构化或非结构化的数据库来实现。常见的架构模式包括:
检索机制涉及复杂的索引和检索增强生成(RAG)技术,以将最相关的“记忆”提取到活动工作记忆中进行处理。
主要优势包括增强的连贯性、卓越的个性化以及更健壮、更具上下文感知的 AI 模型的发展。LTM 将无状态计算转变为有状态、不断发展的智能。
实施有效的 LTM 面临着一些挑战。这些挑战包括管理记忆的可扩展性(海量数据)、确保数据完整性和一致性,以及解决“检索瓶颈”——在数百万个记忆中找到正确的记忆。
相关概念包括工作记忆(短期处理)、情景记忆(特定过去的事件)、语义记忆(一般知识)和检索增强生成(RAG),后者是与 LTM 交互的主要方法。