Compartilhar via


Pontos de extremidade para Modelos da Fábrica da Microsoft

Microsoft Foundry Models permite que você acesse os modelos mais poderosos de provedores líderes por meio de um único endpoint e um conjunto de credenciais. Essa funcionalidade permite alternar entre modelos e usá-los em seu aplicativo sem alterar nenhum código.

Este artigo explica como os serviços Foundry organizam modelos e como usar o endpoint de inferência para acessá-los.

Importante

Azure SDK beta de inferência de IA foi preterido e será desativado em 26 de agosto de 2026. Alterne para a API OpenAI/v1 em disponibilidade geral com um SDK do OpenAI estável. Siga o guia de migração para alternar para OpenAI/v1 usando o SDK para sua linguagem de programação preferida.

Implantações

A Foundry usa implantações para disponibilizar modelos. As implantações dão um nome a um modelo e definem configurações específicas. Você pode acessar um modelo usando seu nome de implementação em seus pedidos.

Uma implantação inclui:

  • Nome de um modelo
  • Uma versão de modelo
  • Um provisionamento ou tipo de capacidade 1
  • Uma configuração de filtragem de conteúdo1
  • Uma configuração de limitação de taxa1

1 Essas configurações podem ser alteradas dependendo do modelo selecionado.

Um recurso Foundry pode ter muitas implantações de modelo. Você paga apenas pela inferência executada em implantações de modelo. As implantações são recursos do Azure, portanto, estão sujeitas a políticas do Azure.

Para obter mais informações sobre como criar implantações, consulte Adicionar e configurar implantações de modelo.

Ponto de extremidade de inferência do OpenAI do Azure

A API Azure OpenAI expõe todos os recursos de modelos OpenAI e dá suporte a mais recursos como assistentes, threads, arquivos e inferência em lote. Você também pode acessar modelos não pertencentes à OpenAI por essa rota.

Os pontos de extremidade OpenAI do Azure, geralmente do formulário https://<resource-name>.openai.azure.com, funcionam no nível de implantação e cada implantação tem sua própria URL associada. No entanto, você pode usar o mesmo mecanismo de autenticação para consumir as implantações. Para obter mais informações, consulte a página de referência para Azure API OpenAI.

Uma ilustração que mostra como as implementações do Azure OpenAI contêm uma única URL para cada implementação.

Cada implantação tem uma URL formada pela concatenação da URL base Azure OpenAI e a rota /deployments/<model-deployment-name>.

Instale o pacote openai usando sua package manager, como pip:

pip install openai --upgrade

Então, você pode usar o pacote para consumir o modelo. O exemplo a seguir mostra como criar um cliente para consumir conclusões de chat:

import os
from openai import AzureOpenAI
    
client = AzureOpenAI(
    azure_endpoint = "https://<resource>.services.ai.azure.com"
    api_key=os.getenv("AZURE_INFERENCE_CREDENTIAL"),  
    api_version="2024-10-21",
)
response = client.chat.completions.create(
    model="deepseek-v3-0324", # Replace with your model deployment name.
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain Riemann's conjecture in 1 paragraph"}
    ]
)

print(response.model_dump_json(indent=2)

Para obter mais informações sobre como usar o ponto de extremidade do OpenAI do Azure, consulte a documentação OpenAI do Azure em Modelos do Foundry.

Autenticação sem chave

Os modelos implantados nos Modelos da Fábrica no Foundry Tools dão suporte à autorização sem chave usando o Microsoft Entra ID. A autorização sem chave aprimora a segurança, simplifica a experiência do usuário, reduz a complexidade operacional e fornece suporte robusto de conformidade para o desenvolvimento moderno. Isso torna a autorização sem chave uma opção forte para as organizações que adotam soluções de gerenciamento de identidade seguras e escalonáveis.

Para usar a autenticação sem chave, configure seu recurso e conceda acesso aos usuários para executar a inferência. Depois de configurar o recurso e conceder access, autentique da seguinte maneira:

Instale o SDK do OpenAI usando uma package manager como pip:

pip install openai

Para Microsoft Entra ID autenticação, instale também:

pip install azure-identity

Use o pacote para consumir o modelo. O exemplo a seguir mostra como criar um cliente para consumir preenchimentos de chat com o Microsoft Entra ID e fazer uma chamada de teste para o ponto de extremidade de preenchimentos de chat com a implantação do seu modelo.

Substitua <resource> pelo nome do recurso Foundry. Localize-o no portal do Azure ou executando az cognitiveservices account list. Substitua DeepSeek-V3.1 pelo nome da sua implantação.

from openai import OpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), 
    "https://ai.azure.com/.default"
)

client = OpenAI(
    base_url="https://<resource>.openai.azure.com/openai/v1/",
    api_key=token_provider,
)

completion = client.chat.completions.create(
    model="DeepSeek-V3.1",  # Required: your deployment name
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "What is Azure AI?"}
    ]
)

print(completion.choices[0].message.content)

Resultado esperado

Azure AI is a comprehensive suite of artificial intelligence services and tools from Microsoft that enables developers to build intelligent applications. It includes services for natural language processing, computer vision, speech recognition, and machine learning capabilities.

Referência: OpenAI Python SDK e classeDefaultAzureCredential.