Aan de slag met LangChain en LangGraph met Foundry

Gebruik het pakket langchain-azure-ai als toegangspunt voor het bouwen van LangChain- en LangGraph-toepassingen met Microsoft Foundry-mogelijkheden. In dit artikel vindt u een kaart op hoog niveau van het pakket, zodat u snel kunt beginnen en vervolgens naar de juiste uitgebreide documentatie voor elke mogelijkheid kunt gaan.

Voorwaarden

Tip

In dit artikel wordt ondersteuning vermeld voor Microsoft Foundry (nieuw), die gebruikmaakt van versie azure-ai-projects>=2.0. Als u Foundry classic gebruikt, gebruikt u dan langchain-azure-ai[v1] in plaats daarvan.

Het pakket installeren

Installeer het basispakket:

pip install -U langchain-azure-ai azure-identity

Installeer optionele extra's op basis van uw scenario:

pip install -U "langchain-azure-ai[tools]"
pip install -U "langchain-azure-ai[opentelemetry]"
  • Gebruik [tools] als uw app gebruikmaakt van hulpprogramma's uit de naamruimte langchain_azure_ai.tools.*, zoals Document Intelligence.
  • Gebruik [opentelemetry] deze optie als u integratie van tracering wilt via OpenTelemetry.

Integratiebouwstenen kiezen

Gebruik deze kaart om de juiste naamruimte voor uw oplossing te kiezen:

Vermogen Naamruimte Typisch gebruik
Foundry Agentendienst langchain_azure_ai.agents Bouw beheerde agentknooppunten voor het bouwen van complexe grafieken en stromen voor LangGraph en LangChain. Zie gedetailleerde voorbeelden.
Veiligheid van foundry-content langchain_azure_ai.agents.middleware Gebruik Foundry Content Safety en Moderatie om ervoor te zorgen dat u een oplossing kunt implementeren met de juiste randvoorwaarden. Zie gedetailleerde voorbeelden.
Chatmodellen langchain_azure_ai.chat_models Roep Azure OpenAI en chatmodellen van de modelcatalogus aan. Zie gedetailleerde voorbeelden.
Insluitingen langchain_azure_ai.embeddings Roep insluitmodellen aan uit de catalogus en genereer vectoren voor zoeken, ophalen en rangschikkingswerkstromen. Zie gedetailleerde voorbeelden.
Vectoropslag langchain_azure_ai.vectorstores Gebruik Azure AI Zoeken- en Cosmos DB-vectorintegraties.
Retrievers langchain_azure_ai.retrievers Voer het ophalen uit via Azure ondersteunde indexen en archieven.
Opslag van chatgeschiedenis langchain_azure_ai.chat_message_histories Chatgeschiedenis behouden en opnieuw afspelen in sessies. Gebruik geschiedenissen op basis van geheugen om geconsolideerde geschiedenis van passchats op te halen. Zie gedetailleerde voorbeelden.
Hulpmiddelen langchain_azure_ai.tools Hulpprogramma's toevoegen, zoals Document Intelligence, Vision, statustekstanalyse en Logic Apps.
Callbacks en tracering langchain_azure_ai.callbacks Leg uitvoeringsevenementen vast en verzendt OpenTelemetry-traceringen. Zie gedetailleerde voorbeelden.
Queryconstructors langchain_azure_ai.query_constructors Maak back-endspecifieke queryfilters voor het ophalen van scenario's.

Zie de sectie Leer elke mogelijkheid in detail voor specifieke stapsgewijze instructies.

Verbinding maken met projecteindpunten en -referenties

Veel langchain-azure-ai klassen ondersteunen het maken van verbinding via een Foundry-projecteindpunt. Stel AZURE_AI_PROJECT_ENDPOINT deze eenmaal in en gebruik deze vervolgens opnieuw in ondersteunde klassen.

export AZURE_AI_PROJECT_ENDPOINT="https://<resource>.services.ai.azure.com/api/projects/<project>"

Wanneer u project_endpoint gebruikt, gebruikt verificatie Microsoft Entra ID en Azure RBAC voor het project.

API-sleutels zijn voor directe service-eindpunten, zoals /openai/v1.

export OPENAI_BASE_URL="https://<resource>.services.ai.azure.com/openai/v1"
export OPENAI_API_KEY="<your-key>"

Voorbeeld: Foundry-modellen gebruiken

Zodra de omgevingsvariabelen zijn geconfigureerd, kunt u een model gebruiken door:

import langchain.chat_models import init_chat_model

model = init_chat_model("azure_ai:gpt-5.2")

U kunt clients ook specifiek configureren. Laten we als voorbeeld een representatief patroon zien AzureAIOpenAIApiChatModel :

import os

from azure.identity import DefaultAzureCredential
from langchain_azure_ai.chat_models import AzureAIOpenAIApiChatModel

# Option A: Use a Foundry project endpoint (Microsoft Entra ID required).
model_from_project = AzureAIOpenAIApiChatModel(
  project_endpoint=os.environ["AZURE_AI_PROJECT_ENDPOINT"],
  credential=DefaultAzureCredential(),
  model="gpt-5.2",
)

# Option B: Use a service endpoint directly.
model_from_endpoint = AzureAIOpenAIApiChatModel(
  endpoint=os.environ["OPENAI_BASE_URL"],
  credential=DefaultAzureCredential(),
  model="gpt-5.2",
)

# Option C: Use a different credential strategy.
model_with_cli_credential = AzureAIOpenAIApiChatModel(
  endpoint=os.environ["OPENAI_BASE_URL"],
  credential="super-secret",
  model="gpt-5.2",
)

Wat dit codefragment doet: Toont hetzelfde model dat is geïnitialiseerd vanuit een Foundry-projecteindpunt of vanuit een direct service-eindpunt en laat zien hoe u referenties kunt wisselen.

U kunt hetzelfde patroon toepassen op hulpprogramma's. U kunt bijvoorbeeld AzureAIDocumentIntelligenceTool het projecteindpunt en DefaultAzureCredential zonder extra configuratie gebruiken wanneer AZURE_AI_PROJECT_ENDPOINT deze is ingesteld:

from langchain_azure_ai.tools import AzureAIDocumentIntelligenceTool

document_tool = AzureAIDocumentIntelligenceTool()

Hoe werkt DefaultAzureCredential?

DefaultAzureCredential probeert verschillende Microsoft Entra ID referentiebronnen op volgorde en gebruikt de eerste bron die werkt. Veelvoorkomende bronnen zijn omgevingsvariabelen, beheerde identiteit, ontwikkelhulpprogramma's en Azure CLI.

Gebruiken DefaultAzureCredential als de standaardinstelling voor lokale ontwikkeling en geïmplementeerde workloads. Als u strengere controle nodig hebt, vervangt u deze door een specifieke referentie, zoals AzureCliCredential voor lokale ontwikkeling of ManagedIdentityCredential voor productieworkloads in Azure.

Hetzelfde projecteindpuntpatroon wordt ook gebruikt door andere klassen.

Meer informatie over elke mogelijkheid in detail

Begin met deze handleidingen in deze documentatieset:

Gebruik deze pakketbronnen voor details en updates op moduleniveau:

Volgende stap