Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Gebruik het pakket langchain-azure-ai als toegangspunt voor het bouwen van LangChain- en LangGraph-toepassingen met Microsoft Foundry-mogelijkheden. In dit artikel vindt u een kaart op hoog niveau van het pakket, zodat u snel kunt beginnen en vervolgens naar de juiste uitgebreide documentatie voor elke mogelijkheid kunt gaan.
Voorwaarden
- Een Azure-abonnement. Maak er gratis een.
- Een Foundry-project.
- De rol Azure AI-gebruiker in het Foundry-project (rol met minimale bevoegdheden voor ontwikkeling). Als u ook resources maakt of beheert, gebruikt u indien nodig Inzender of Eigenaar . Zie Toegangsbeheer op basis vanRole voor Microsoft Foundry voor meer informatie.
- Python 3.10 of hoger.
- Azure CLI aangemeld (
az login), zodatDefaultAzureCredentialkan authenticeren.
Tip
In dit artikel wordt ondersteuning vermeld voor Microsoft Foundry (nieuw), die gebruikmaakt van versie azure-ai-projects>=2.0.
Als u Foundry classic gebruikt, gebruikt u dan langchain-azure-ai[v1] in plaats daarvan.
Het pakket installeren
Installeer het basispakket:
pip install -U langchain-azure-ai azure-identity
Installeer optionele extra's op basis van uw scenario:
pip install -U "langchain-azure-ai[tools]"
pip install -U "langchain-azure-ai[opentelemetry]"
- Gebruik
[tools]als uw app gebruikmaakt van hulpprogramma's uit de naamruimtelangchain_azure_ai.tools.*, zoals Document Intelligence. - Gebruik
[opentelemetry]deze optie als u integratie van tracering wilt via OpenTelemetry.
Integratiebouwstenen kiezen
Gebruik deze kaart om de juiste naamruimte voor uw oplossing te kiezen:
| Vermogen | Naamruimte | Typisch gebruik |
|---|---|---|
| Foundry Agentendienst | langchain_azure_ai.agents |
Bouw beheerde agentknooppunten voor het bouwen van complexe grafieken en stromen voor LangGraph en LangChain. Zie gedetailleerde voorbeelden. |
| Veiligheid van foundry-content | langchain_azure_ai.agents.middleware |
Gebruik Foundry Content Safety en Moderatie om ervoor te zorgen dat u een oplossing kunt implementeren met de juiste randvoorwaarden. Zie gedetailleerde voorbeelden. |
| Chatmodellen | langchain_azure_ai.chat_models |
Roep Azure OpenAI en chatmodellen van de modelcatalogus aan. Zie gedetailleerde voorbeelden. |
| Insluitingen | langchain_azure_ai.embeddings |
Roep insluitmodellen aan uit de catalogus en genereer vectoren voor zoeken, ophalen en rangschikkingswerkstromen. Zie gedetailleerde voorbeelden. |
| Vectoropslag | langchain_azure_ai.vectorstores |
Gebruik Azure AI Zoeken- en Cosmos DB-vectorintegraties. |
| Retrievers | langchain_azure_ai.retrievers |
Voer het ophalen uit via Azure ondersteunde indexen en archieven. |
| Opslag van chatgeschiedenis | langchain_azure_ai.chat_message_histories |
Chatgeschiedenis behouden en opnieuw afspelen in sessies. Gebruik geschiedenissen op basis van geheugen om geconsolideerde geschiedenis van passchats op te halen. Zie gedetailleerde voorbeelden. |
| Hulpmiddelen | langchain_azure_ai.tools |
Hulpprogramma's toevoegen, zoals Document Intelligence, Vision, statustekstanalyse en Logic Apps. |
| Callbacks en tracering | langchain_azure_ai.callbacks |
Leg uitvoeringsevenementen vast en verzendt OpenTelemetry-traceringen. Zie gedetailleerde voorbeelden. |
| Queryconstructors | langchain_azure_ai.query_constructors |
Maak back-endspecifieke queryfilters voor het ophalen van scenario's. |
Zie de sectie Leer elke mogelijkheid in detail voor specifieke stapsgewijze instructies.
Verbinding maken met projecteindpunten en -referenties
Veel langchain-azure-ai klassen ondersteunen het maken van verbinding via een Foundry-projecteindpunt. Stel AZURE_AI_PROJECT_ENDPOINT deze eenmaal in en gebruik deze vervolgens opnieuw in ondersteunde klassen.
export AZURE_AI_PROJECT_ENDPOINT="https://<resource>.services.ai.azure.com/api/projects/<project>"
Wanneer u project_endpoint gebruikt, gebruikt verificatie Microsoft Entra ID en Azure RBAC voor het project.
API-sleutels zijn voor directe service-eindpunten, zoals /openai/v1.
export OPENAI_BASE_URL="https://<resource>.services.ai.azure.com/openai/v1"
export OPENAI_API_KEY="<your-key>"
Voorbeeld: Foundry-modellen gebruiken
Zodra de omgevingsvariabelen zijn geconfigureerd, kunt u een model gebruiken door:
import langchain.chat_models import init_chat_model
model = init_chat_model("azure_ai:gpt-5.2")
U kunt clients ook specifiek configureren. Laten we als voorbeeld een representatief patroon zien AzureAIOpenAIApiChatModel :
import os
from azure.identity import DefaultAzureCredential
from langchain_azure_ai.chat_models import AzureAIOpenAIApiChatModel
# Option A: Use a Foundry project endpoint (Microsoft Entra ID required).
model_from_project = AzureAIOpenAIApiChatModel(
project_endpoint=os.environ["AZURE_AI_PROJECT_ENDPOINT"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option B: Use a service endpoint directly.
model_from_endpoint = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential=DefaultAzureCredential(),
model="gpt-5.2",
)
# Option C: Use a different credential strategy.
model_with_cli_credential = AzureAIOpenAIApiChatModel(
endpoint=os.environ["OPENAI_BASE_URL"],
credential="super-secret",
model="gpt-5.2",
)
Wat dit codefragment doet: Toont hetzelfde model dat is geïnitialiseerd vanuit een Foundry-projecteindpunt of vanuit een direct service-eindpunt en laat zien hoe u referenties kunt wisselen.
U kunt hetzelfde patroon toepassen op hulpprogramma's. U kunt bijvoorbeeld AzureAIDocumentIntelligenceTool het projecteindpunt en DefaultAzureCredential zonder extra configuratie gebruiken wanneer AZURE_AI_PROJECT_ENDPOINT deze is ingesteld:
from langchain_azure_ai.tools import AzureAIDocumentIntelligenceTool
document_tool = AzureAIDocumentIntelligenceTool()
Hoe werkt DefaultAzureCredential?
DefaultAzureCredential probeert verschillende Microsoft Entra ID referentiebronnen op volgorde en gebruikt de eerste bron die werkt. Veelvoorkomende bronnen zijn omgevingsvariabelen, beheerde identiteit, ontwikkelhulpprogramma's en Azure CLI.
Gebruiken DefaultAzureCredential als de standaardinstelling voor lokale ontwikkeling en geïmplementeerde workloads. Als u strengere controle nodig hebt, vervangt u deze door een specifieke referentie, zoals AzureCliCredential voor lokale ontwikkeling of ManagedIdentityCredential voor productieworkloads in Azure.
Hetzelfde projecteindpuntpatroon wordt ook gebruikt door andere klassen.
Meer informatie over elke mogelijkheid in detail
Begin met deze handleidingen in deze documentatieset:
- Foundry-modellen gebruiken met LangChain en LangGraph
- Foundry Content Safety-middleware gebruiken
- Foundry Agent Service gebruiken met LangGraph
- Foundry Memory gebruiken met LangChain en LangGraph
- Foundry Waarneembaarheid gebruiken om apps te traceren
Gebruik deze pakketbronnen voor details en updates op moduleniveau: