Como gerar respostas de texto com Microsoft Foundry Models

Este artigo explica como gerar respostas textuais para modelos Foundry, como Microsoft AI, DeepSeek e modelos Grok, utilizando a API Responses. Para uma lista completa dos Modelos Foundry que suportam a utilização da API Responses, consulte Modelos Foundry Suportados.

Pré-requisitos

Para usar a API Responses com modelos implementados na sua aplicação, precisa de:

  • Uma subscrição do Azure. Se estiveres a usar GitHub Models, podes atualizar a tua experiência e criar uma subscrição do Azure no processo. Leia Upgrade de GitHub Models para Microsoft Foundry Models se for esse o seu caso.

  • Um projeto da Foundry. Este tipo de projeto é gerido através de um recurso da Foundry. Se não tiver um projeto Foundry, veja Criar um projeto para Microsoft Foundry.

  • O endereço URL do endpoint do seu projeto Foundry, que tem o formato https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME.

  • Uma implementação de um Modelo de Fundição, como o DeepSeek-R1-0528 modelo utilizado neste artigo. Se ainda não tiver uma implementação, veja Adicionar e configurar Modelos Foundry para implementação de modelos nos seus recursos.

Usa o kit inicial de modelos de IA

Os excertos de código neste artigo são do kit inicial de modelos de IA. Use este kit inicial como uma forma rápida de começar com toda a infraestrutura cloud e o código necessários para chamar Foundry Models, usando uma biblioteca OpenAI estável com a API Responses.

Utilize a API de Respostas para gerar texto

Use o código nesta secção para fazer chamadas Response API para modelos Foundry. Nos exemplos de código, cria-se o cliente para consumir o modelo e depois envia-se um pedido básico.

Dica

Quando implementas um modelo no portal Foundry, atribuis-lhe um nome de implementação. Use este nome de implementação (não o ID do catálogo de modelos) no model parâmetro das suas chamadas de API.

Nota

Use autenticação sem chave com Microsoft Entra ID. Para saber mais sobre autenticação sem chave, veja O que é autenticação Microsoft Entra? e DefaultAzureCredential.

  1. Bibliotecas de instalação, incluindo a biblioteca cliente Azure Identity:

    pip install azure-identity
    pip install -U openai
    
  2. Use o código seguinte para configurar o objeto cliente OpenAI na rota do projeto, especificar a sua implementação e gerar respostas.

    from azure.identity import DefaultAzureCredential, get_bearer_token_provider
    from openai import OpenAI
    
    project_endpoint = "https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME"
    # Build the base URL: project_endpoint + /openai/v1 (no api-version needed)
    base_url = project_endpoint.rstrip("/") + "/openai/v1"
    
    # get_bearer_token_provider returns a callable; call it to get automatic refresh of the token string
    credential = DefaultAzureCredential()
    token_provider = get_bearer_token_provider(credential, "https://ai.azure.com/.default")
    client = OpenAI(
        base_url=base_url,
        api_key=token_provider(),
    )   
    
    response = client.responses.create(
        model="DeepSeek-R1-0528", # Replace with your deployment name, not the model ID 
        input="What are the top 3 benefits of cloud computing? Be concise.",
        max_output_tokens=500,
    )
    
    print(f"Response: {response.output_text}")
    print(f"Status:   {response.status}")
    print(f"Output tokens: {response.usage.output_tokens}") 
    

A resposta inclui o texto gerado juntamente com os metadados do modelo e da utilização.

Modelos de Fundição Suportados

Uma seleção de Modelos Foundry é suportada para utilização com a API Responses.

Veja os modelos suportados no portal Foundry

Para ver a lista completa dos modelos suportados no portal Foundry:

  1. Iniciar sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se à Foundry (nova).
  2. Selecione Descobrir no canto superior direito da navegação, depois Modelos no painel esquerdo.
  3. Abra o menu de opções Capacidades e selecione o filtro Agente Suportado.

Lista de modelos suportados

Esta secção lista alguns dos Modelos Foundry suportados para uso com a API Responses. Para os modelos OpenAI Azure suportados, veja Modelos OpenAI Azure disponíveis.

Modelos vendidos diretamente por Azure:

  • MAI-DS-R1: Raciocínio determinístico e focado na precisão.
  • grok-4: Raciocínio à escala de fronteira para resolução complexa de problemas em múltiplos passos.
  • grok-4-fast-reasoning: Raciocínio agential acelerado otimizado para automação de fluxos de trabalho.
  • grok-4-fast-non-reasoning: Criação de alta eficiência e roteamento de sistema com baixa latência.
  • grok-3: Raciocínio forte para fluxos de trabalho complexos ao nível do sistema.
  • grok-3-mini: Modelo leve otimizado para casos de uso interativos e de alto volume.
  • Llama-3.3-70B-Instruct: Modelo versátil para perguntas e respostas empresariais, apoio à decisão e orquestração de sistemas.
  • Llama-4-Maverick-17B-128E-Instruct-FP8: Modelo otimizado para FP8 que oferece inferências rápidas e económicas.
  • DeepSeek-V3-0324: Compreensão multimodal em texto e imagens.
  • DeepSeek-V3.1: Raciocínio multimodal aprimorado e recuperação fundamentada.
  • DeepSeek-R1-0528: Raciocínio avançado em formato longo e múltiplos passos.
  • gpt-oss-120b: Modelo de ecossistema aberto que suporta transparência e reprodutibilidade.

Resolução de erros comuns

Erro Causa Resolução
401 Não Autorizado Credencial inválida ou expirada Verifica se o teu DefaultAzureCredential tem o papel Utilizador OpenAI de Serviços Cognitivos atribuído no recurso.
404 Não Encontrado Endpoint ou nome de implementação errado Confirme que a URL do seu endpoint inclui /api/projects/YOUR_PROJECT_NAME e o nome da implementação corresponde ao seu portal Foundry.
Modelo 400 não suportado O Model não suporta a API de Respostas Verifique a lista de modelos suportados e verifique se a sua implementação utiliza um modelo compatível.