Eindpunten voor Microsoft Foundry-modellen

Microsoft Foundry Models kunt u toegang krijgen tot de krachtigste modellen van toonaangevende modelproviders via één eindpunt en een set referenties. Met deze mogelijkheid kunt u schakelen tussen modellen en deze gebruiken in uw toepassing zonder dat u code hoeft te wijzigen.

In dit artikel wordt uitgelegd hoe de Foundry-services modellen organiseren en hoe u het deductie-eindpunt kunt gebruiken om ze te openen.

Belangrijk

Azure AI Inference Beta SDK is afgeschaft en wordt buiten gebruik gesteld op 26 augustus 2026. Schakel over naar de algemeen beschikbare OpenAI/v1-API met een stabiele OpenAI SDK. Volg de migratiehandleiding om over te schakelen naar OpenAI/v1 met behulp van de SDK voor de programmeertaal van uw voorkeur.

Inzettingen

Foundry maakt gebruik van implementaties om modellen beschikbaar te maken. Implementaties geven een model een naam en stellen specifieke configuraties in. U kunt toegang krijgen tot een model met behulp van de implementatienaam in uw aanvragen.

Een implementatie omvat:

  • Een modelnaam
  • Een modelversie
  • Een voorziening of capaciteitstype1
  • Een configuratie voorinhoudsfilters 1
  • Een snelheidsbeperkingsconfiguratie1

1 Deze configuraties kunnen veranderen, afhankelijk van het geselecteerde model.

Een Foundry-resource kan veel modelimplementaties hebben. U betaalt alleen voor inference die wordt uitgevoerd op modelimplementaties. Implementaties zijn Azure resources, zodat ze onderhevig zijn aan Azure beleid.

Zie Modelimplementaties toevoegen en configureren voor meer informatie over het maken van implementaties.

Azure OpenAI-deductie-eindpunt

De Azure OpenAI-API biedt de volledige mogelijkheden van OpenAI-modellen en biedt ondersteuning voor meer functies zoals assistenten, threads, bestanden en batchdeductie. Mogelijk hebt u via deze route ook toegang tot niet-OpenAI-modellen.

Azure OpenAI-eindpunten, meestal van de vorm https://<resource-name>.openai.azure.com, werken op het implementatieniveau en elke implementatie heeft een eigen gekoppelde URL. U kunt echter hetzelfde verificatiemechanisme gebruiken om de implementaties te gebruiken. Zie de referentiepagina voor Azure OpenAI-API voor meer informatie.

An illustratie waarin wordt getoond hoe Azure OpenAI-implementaties één URL bevatten voor elke deployment.

Elke implementatie heeft een URL die wordt gevormd door het samenvoegen van de Azure OpenAI basis-URL en de route /deployments/<model-deployment-name>.

Installeer het pakket openai met behulp van uw pakketbeheer, zoals pip:

pip install openai --upgrade

Vervolgens kunt u het pakket gebruiken om het model te consumeren of toe te passen. In het volgende voorbeeld ziet u hoe u een client maakt om chatvoltooiingen te gebruiken:

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model deployment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

Zie Azure OpenAI in de documentatie van Foundry Models voor meer informatie over het gebruik van het Azure OpenAI-eindpunt0>.

Sleutelloze verificatie

Modellen die zijn geïmplementeerd in Foundry Models in Foundry Tools ondersteunen sleutelloze autorisatie met behulp van Microsoft Entra ID. Sleutelloze autorisatie verbetert de beveiliging, vereenvoudigt de gebruikerservaring, vermindert de operationele complexiteit en biedt robuuste nalevingsondersteuning voor moderne ontwikkeling. Het maakt sleutelloze autorisatie een sterke keuze voor organisaties die veilige en schaalbare oplossingen voor identiteitsbeheer gebruiken.

Als u sleutelloze verificatie wilt gebruiken, configureert u uw resource en verleent u toegang tot gebruikers om inference uit te voeren. Nadat u de resource hebt geconfigureerd en toegang hebt verleend, moet u zich als volgt verifiëren:

Installeer de OpenAI SDK met behulp van een pakketbeheerder zoals pip:

pip install openai

Voor Microsoft Entra ID-verificatie moet u ook het volgende installeren:

pip install azure-identity

Gebruik het pakket om het model te gebruiken. In het volgende voorbeeld ziet u hoe u een client maakt om chatvoltooiingen met Microsoft Entra ID te gebruiken en een testgesprek te voeren naar het eindpunt voor voltooiing van de chat met uw modelimplementatie.

Vervang door <resource> de naam van de Foundry-resource. Zoek deze in de Azure-portal of door az cognitiveservices account list uit te voeren. Vervang DeepSeek-V3.1 door uw werkelijke implementatienaam.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), 
    "https://ai.azure.com/.default"
)

client = OpenAI(
    base_url="https://<resource>.openai.azure.com/openai/v1/",
    api_key=token_provider,
)

completion = client.chat.completions.create(
    model="DeepSeek-V3.1",  # Required: your deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is Azure AI?"}
    ]
)

print(completion.choices[0].message.content)

Verwachte uitvoer

Azure AI is a comprehensive suite of artificial intelligence services and tools from Microsoft that enables developers to build intelligent applications. It includes services for natural language processing, computer vision, speech recognition, and machine learning capabilities.

Naslaginformatie: OpenAI Python SDK en klasse DefaultAzureCredential.