拡張メモリ
拡張メモリとは、人工知能システム、特に大規模言語モデル(LLM)が、初期のトレーニングデータを超えた外部的、動的で永続的なメモリを備えるアーキテクチャ設計パターンを指します。システムは静的なパラメーターだけに頼るのではなく、外部のナレッジベース、データベース、または過去のやり取りから特定の関連情報を能動的に読み取り、書き込み、検索することができます。
AIアプリケーションが単なるパターンマッチングから真の有用性へと移行するためには、コンテキストを持つ必要があります。従来のモデルは、コンテキストウィンドウの制限や知識のカットオフに悩まされています。拡張メモリは、AIに独自の、リアルタイムの、または非常に具体的なデータで絶えず更新される「長期記憶」を提供することで、より正確で、関連性の高い、パーソナライズされた出力を生み出します。
このプロセスには通常、いくつかの統合されたコンポーネントが関与します。
拡張メモリは、エンタープライズAI導入の基盤となります。
主な利点には、コンテキストウィンドウの制約の克服、事実に基づいた根拠の確保(ハルシネーションの削減)、リアルタイム知識統合の実現、およびAI生成応答の関連性と深さの劇的な向上が含まれます。
堅牢な拡張メモリシステムの導入には、検索ステップによって導入されるレイテンシ、高品質なインデックスを維持する複雑さ、および埋め込みモデルのチューニングが不十分な場合に無関係またはノイズの多いデータを検索するリスクといった課題があります。
この概念は、検索拡張生成(RAG)、ベクトルデータベース、およびAIエージェントにおけるステート管理と密接に関連しています。