Kommentar
Åtkomst till den här sidan kräver auktorisering. Du kan prova att logga in eller ändra kataloger.
Åtkomst till den här sidan kräver auktorisering. Du kan prova att ändra kataloger.
Viktigt!
Lakebase Autoscaling är den senaste versionen av Lakebase, med automatisk skalningsberäkning, skalning till noll, förgrening och omedelbar återställning. Information om regioner som stöds finns i Regiontillgänglighet. Om du är en Lakebase Provisioned-användare kan du läsa Lakebase Provisioned.
AI-agenter behöver beständig lagring för att upprätthålla kontexten mellan svängar och sessioner. Lakebase Autoscaling tillhandahåller en fullständigt hanterad Postgres-serverdel för lagring av agenttillstånd och minne, integrering internt med Databricks-autentisering och skalning automatiskt med din arbetsbelastning.
Kortsiktigt jämfört med långtidsminne
| Kortsiktigt minne | Långtidsminne |
|---|---|
| Samlar in kontext i en enda konversationssession med hjälp av tråd-ID:er och kontrollpunkter. Låter agenter besvara uppföljningsfrågor med medvetenhet om tidigare interaktioner. |
Extraherar och lagrar viktiga insikter i flera konversationer. Aktiverar anpassade svar baserat på tidigare interaktioner. Skapar en användarkunskapsbas som förbättras med tiden. |
Du kan implementera någon av eller båda minnestyperna i samma agent.
Implementeringsalternativ
Agentminne som stöds av Lakebase stöds på två Databricks-distributionsmål:
Databricks-appar: Distribuera agenter som interaktiva program med kortsiktigt eller långsiktigt minne med hjälp av LangGraph-kontrollpunkter eller OpenAI Agents SDK. Databricks hanterar autentisering mellan appen och Lakebase automatiskt. Se AI-agentminne.
Ai-modellservering för Mosaik: Distribuera agenter till modellserveringsslutpunkter med Lakebase-baserade kontrollpunkter. Stöder LangGraph-tidsresor för att återuppta eller förgrena konversationer från valfri kontrollpunkt. Se AI-agentminne (modellservering).
Implementation
Fullständiga installationsanvisningar, appmallar och notebook-exempel finns i: