Partilhar via


Estado do agente e memória

Importante

O Autoscaling do Lakebase é a versão mais recente do Lakebase, com computação autoescalável, escala até zero, ramificação e restauração instantânea. Para regiões suportadas, consulte Disponibilidade de Regiões. Se é utilizador do Lakebase Provisioned, consulte Lakebase Provisioned.

Os agentes de IA precisam de armazenamento persistente para manter o contexto entre turnos e sessões. O Lakebase Autoscaling fornece um backend Postgres totalmente gerido para armazenar o estado do agente e a memória, integrando-se nativamente com a autenticação Databricks e escalando automaticamente com a sua carga de trabalho.

Memória de curto prazo vs. memória de longo prazo

Memória de curto prazo Memória de longo prazo
Captura o contexto numa única sessão de conversa, usando IDs de thread e pontos de verificação.
Permite aos agentes responder a perguntas de acompanhamento tendo em conta os turnos anteriores.
Extrai e armazena insights chave em várias conversas.
Permite respostas personalizadas baseadas em interações passadas.
Constrói uma base de conhecimento do utilizador que melhora ao longo do tempo.

Podes implementar um ou ambos os tipos de memória no mesmo agente.

Opções de implantação

A memória do agente suportada por Lakebase é compatível com dois alvos de implementação do Databricks:

Databricks Apps: Implementar agentes como aplicações interativas com memória de curto ou longo prazo, utilizando checkpointers LangGraph ou o SDK OpenAI Agents. O Databricks gere automaticamente a autenticação entre a aplicação e o Lakebase. Ver memória do agente de IA.

Mosaic AI Model Serving: Implantar agentes nos endpoints de Model Serving com checkpoints suportados pelo Lakebase. Suporta viagem no tempo LangGraph para retomar ou bifurcar conversas a partir de qualquer ponto de verificação. Veja memória de agentes de IA (Model Serving).

Implementation

Para instruções completas de configuração, modelos de aplicações e exemplos de cadernos, veja:

Passos seguintes