エージェントの状態とメモリ

Important

Lakebase 自動スケールは、自動スケール コンピューティング、ゼロへのスケール、分岐、インスタント リストアを備えた最新バージョンの Lakebase です。 サポートされているリージョンについては、「 リージョンの可用性」を参照してください。 Lakebase プロビジョニング済みユーザーの場合は、「 Lakebase Provisioned」を参照してください。

AI エージェントは、ターンとセッションの間でコンテキストを維持するために永続的なストレージを必要とします。 Lakebase 自動スケーリングでは、エージェントの状態とメモリを格納するためのフル マネージド Postgres バックエンドが提供され、Databricks 認証とネイティブに統合され、ワークロードに自動的にスケーリングされます。

短期記憶と長期記憶

短期記憶 長期記憶
スレッド ID とチェックポイント処理を使用して、1 つの会話セッション内のコンテキストをキャプチャします。
エージェントが以前のターンを認識してフォローアップの質問に回答できるようにします。
複数の会話にわたる主要な分析情報を抽出して格納します。
過去の操作に基づいてパーソナライズされた応答を有効にします。
時間の経過と同時に改善されるユーザー ナレッジ ベースを構築します。

一方または両方のメモリの種類を同じエージェントに実装できます。

展開オプション

Lakebase ベースのエージェント メモリは、2 つの Databricks デプロイ ターゲットでサポートされています。

Databricks Apps: LangGraph チェックポイント機能または OpenAI Agents SDK を使用して、短期または長期のメモリを持つ対話型アプリケーションとしてエージェントをデプロイします。 Databricks は、アプリと Lakebase の間の認証を自動的に処理します。 AI エージェントのメモリを参照してください。

モザイク AI モデル サービス: Lakebase に基づくチェックポイントを使用して、モデル サービス エンドポイントにエージェントをデプロイします。 任意のチェックポイントからの会話を再開またはフォークするための LangGraph タイム トラベルをサポートします。 AI エージェント メモリ (モデル サービス) を参照してください。

Implementation

完全なセットアップ手順、アプリ テンプレート、ノートブックの例については、次を参照してください。

次のステップ