自然语言记忆
自然语言记忆(NLM)指的是人工智能系统保留、回忆和利用从先前交互、对话或以自然人类语言呈现的文档中获取的信息的能力。与孤立处理每个查询的无状态模型不同,NLM 允许人工智能在一段时间内保持上下文、建立历史记录并提供连贯、个性化的回复。
在实际应用中,记忆将人工智能从一个简单的问答机器人转变为一个功能性的助手。如果没有 NLM,复杂的、多轮对话是不可能的;系统会在第一次回复后忘记对话的前提。NLM 对于创建真正智能、持久和以用户为中心的人工智能体验至关重要。
NLM 通常通过各种架构模式来实现。这些包括短期记忆(上下文窗口,即将最近的轮次反馈到提示中)和长期记忆(向量数据库或知识图谱)。当用户输入查询时,系统首先根据语义相似性从长期存储中检索相关的历史信息,然后将此检索到的上下文与当前提示结合起来,再输入到核心语言模型中进行生成。
主要优势包括由于连续性而增强的用户满意度、通过减少冗余输入而提高的运营效率,以及处理需要历史意识的更复杂、更细微任务的能力。
实施强大的 NLM 带来了挑战。管理上下文窗口限制(LLM 有限的输入大小)至关重要。此外,确保检索到的记忆是准确、相关的,并且不会引入来自过时或误解数据的“幻觉”,需要复杂的检索机制。
相关概念包括上下文窗口管理、检索增强生成(RAG)和 AI 智能体中的状态管理。这些技术协同工作,为现代语言模型构建了一个全面的记忆层。