Kom igång med LangChain och LangGraph med Foundry

Använd paketet langchain-azure-ai som startpunkt för att skapa LangChain- och LangGraph-program med Microsoft Foundry-funktioner. Den här artikeln ger dig en övergripande karta över paketet så att du kan börja snabbt och sedan gå vidare till rätt djupdykningsdokumentation för varje funktion.

Förutsättningar

Tips

I den här artikeln nämns stöd för Microsoft Foundry (ny), som använder version azure-ai-projects>=2.0. Om du använder Foundry classic använder du langchain-azure-ai[v1] i stället.

Installera paketet

Installera baspaketet:

pip install -U langchain-azure-ai azure-identity

Installera valfria extrafunktioner baserat på ditt scenario:

pip install -U "langchain-azure-ai[tools]"
pip install -U "langchain-azure-ai[opentelemetry]"
  • Använd [tools] om din app använder verktyg från namnområdet langchain_azure_ai.tools.*, till exempel Dokumentinformation.
  • Använd [opentelemetry] om du vill spåra integrering via OpenTelemetry.

Välj byggstenar för integrering

Använd den här kartan för att välja rätt namnområde för din lösning:

Kapacitet Namnområde Typisk användning
Foundry Agent-tjänst langchain_azure_ai.agents Skapa hanterade agentnoder för att skapa komplexa diagram och flöden för LangGraph och LangChain. Se detaljerade exempel.
Foundry-innehållssäkerhet langchain_azure_ai.agents.middleware Använd Foundry Content Safety and Moderation för att se till att du kan distribuera lösningen med rätt skyddsräcken. Se detaljerade exempel.
Chattmodeller langchain_azure_ai.chat_models Anropa Azure OpenAI och chattmodeller från modellkatalogen. Se detaljerade exempel.
Inbäddningar langchain_azure_ai.embeddings Anropa inbäddningsmodeller från katalogen och generera vektorer för sök-, hämtnings- och rangordningsarbetsflöden. Se detaljerade exempel.
Vektordatabaser langchain_azure_ai.vectorstores Använd Azure AI-sökning- och Cosmos DB-vektorintegreringar.
Hämtare langchain_azure_ai.retrievers Kör hämtning på Azure-stödda index och databaser.
Lagring av chatthistorik langchain_azure_ai.chat_message_histories Spara och spela upp chatthistorik över sessioner. Använd minnesdriven historik för att återhämta konsoliderad chatthistorik. Se detaljerade exempel.
Verktyg langchain_azure_ai.tools Lägg till verktyg som Dokumentinformation, Vision, hälsotextanalys och Logic Apps.
Återanrop och spårning langchain_azure_ai.callbacks Samla in körningshändelser och generera OpenTelemetry-spårningar. Se detaljerade exempel.
Frågekonstruktorer langchain_azure_ai.query_constructors Skapa serverdelsspecifika frågefilter för hämtningsscenarier.

Se avsnittet Learn each capability in detail for specific walkthroughs ( Lär dig varje funktion i detalj ) för specifika genomgångar.

Anslut till projektets slutpunkter och autentiseringsuppgifter

Många langchain-azure-ai klasser stöder anslutning via en Foundry-projektslutpunkt. Ange AZURE_AI_PROJECT_ENDPOINT en gång och återanvänd den sedan i klasser som stöds.

export AZURE_AI_PROJECT_ENDPOINT="https://<resource>.services.ai.azure.com/api/projects/<project>"

När du använder project_endpoint använder autentiseringen Microsoft Entra ID och Azure RBAC i projektet.

API-nycklar är för direkta tjänstslutpunkter, till exempel /openai/v1.

export OPENAI_BASE_URL="https://<resource>.services.ai.azure.com/openai/v1"
export OPENAI_API_KEY="<your-key>"

Exempel: Använd gjuterimodeller

När miljövariablerna har konfigurerats kan du använda en modell genom att:

import langchain.chat_models import init_chat_model

model = init_chat_model("azure_ai:gpt-5.2")

Du kan också konfigurera klienter specifikt. Låt oss till exempel se AzureAIOpenAIApiChatModel som ett representativt mönster:

import os

from azure.identity import DefaultAzureCredential
from langchain_azure_ai.chat_models import AzureAIOpenAIApiChatModel

# Option A: Use a Foundry project endpoint (Microsoft Entra ID required).
model_from_project = AzureAIOpenAIApiChatModel(
  project_endpoint=os.environ["AZURE_AI_PROJECT_ENDPOINT"],
  credential=DefaultAzureCredential(),
  model="gpt-5.2",
)

# Option B: Use a service endpoint directly.
model_from_endpoint = AzureAIOpenAIApiChatModel(
  endpoint=os.environ["OPENAI_BASE_URL"],
  credential=DefaultAzureCredential(),
  model="gpt-5.2",
)

# Option C: Use a different credential strategy.
model_with_cli_credential = AzureAIOpenAIApiChatModel(
  endpoint=os.environ["OPENAI_BASE_URL"],
  credential="super-secret",
  model="gpt-5.2",
)

Vad det här kodfragmentet gör: Visar samma modell som initierats från en Foundry-projektslutpunkt eller från en direkt tjänstslutpunkt och visar hur du växlar autentiseringsuppgifter.

Du kan använda samma mönster för verktyg. Kan till exempel AzureAIDocumentIntelligenceTool använda projektslutpunkten och DefaultAzureCredential utan extra konfiguration när AZURE_AI_PROJECT_ENDPOINT har angetts:

from langchain_azure_ai.tools import AzureAIDocumentIntelligenceTool

document_tool = AzureAIDocumentIntelligenceTool()

Hur DefaultAzureCredential fungerar

DefaultAzureCredential försöker flera Microsoft Entra ID autentiseringskällor i ordning och använder den första som fungerar. Vanliga källor är miljövariabler, hanterad identitet, utvecklarverktyg och Azure CLI.

Använd DefaultAzureCredential som standard för lokal utveckling och distribuerade arbetsbelastningar. Om du behöver striktare kontroll ersätter du den med en specifik autentiseringsuppgift, till exempel AzureCliCredential för utveckling endast lokalt eller ManagedIdentityCredential för produktionsarbetsbelastningar i Azure.

Samma projektslutpunktsmönster används också av andra klasser.

Lär dig varje funktion i detalj

Börja med dessa guider i den här dokumentationsuppsättningen:

Använd dessa paketresurser för information och uppdateringar på modulnivå:

Nästa steg