Comment générer des réponses textuelles avec les modèles Foundry de Microsoft

Cet article explique comment générer des réponses de texte pour les modèles Foundry, tels que Microsoft IA, DeepSeek et Grok, à l’aide de l’API Réponses. Pour obtenir la liste complète des Modèles Foundry qui prennent en charge l'utilisation de l'API Réponses, consultez Modèles Foundry pris en charge.

Conditions préalables

Pour utiliser l’API Réponses avec des modèles déployés dans votre application, vous avez besoin des éléments suivants :

  • Un abonnement Azure. Si vous utilisez GitHub Modèles, vous pouvez mettre à niveau votre expérience et créer un abonnement Azure dans le processus. Lisez Upgrader à partir de GitHub Models vers Microsoft Foundry Models si c'est votre cas.

  • Un projet nommé Foundry. Ce type de projet est géré sous une ressource Foundry. Si vous n'avez pas de projet Foundry, consultez Créer un projet pour Microsoft Foundry.

  • URL du point de terminaison de votre projet Foundry, qui est de la forme https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME.

  • Déploiement d’un modèle Foundry, tel que le DeepSeek-R1-0528 modèle utilisé dans cet article. Si vous n’avez pas encore de déploiement, consultez Ajouter et configurer des modèles Foundry à un déploiement de modèle sur votre ressource.

Utiliser le kit de démarrage du modèle IA

Les extraits de code de cet article proviennent du kit de démarrage du modèle IA. Utilisez ce kit de démarrage comme moyen rapide de bien démarrer avec l’infrastructure cloud complète et le code nécessaires pour appeler des modèles Foundry, à l’aide d’une bibliothèque OpenAI stable avec l’API Réponses.

Utiliser l’API Réponses pour générer du texte

Utilisez le code de cette section pour effectuer des appels d’API Réponses pour les modèles Foundry. Dans les exemples de code, vous créez le client pour consommer le modèle, puis envoyez-le une demande de base.

Conseil

Lorsque vous déployez un modèle dans le portail Foundry, vous lui attribuez un nom de déploiement. Utilisez ce nom de déploiement (et non l’ID du catalogue de modèles) dans le model paramètre de vos appels d’API.

Note

Utilisez l’authentification sans clé avec Microsoft Entra ID. Pour en savoir plus sur l’authentification sans clé, consultez Quel est l’authentification Microsoft Entra ? et DefaultAzureCredential.

  1. Installez des bibliothèques, notamment la bibliothèque cliente Azure Identity :

    pip install azure-identity
    pip install -U openai
    
  2. Utilisez le code suivant pour configurer l’objet client OpenAI dans l’itinéraire du projet, spécifier votre déploiement et générer des réponses.

    from azure.identity import DefaultAzureCredential, get_bearer_token_provider
    from openai import OpenAI
    
    project_endpoint = "https://YOUR-RESOURCE-NAME.services.ai.azure.com/api/projects/YOUR_PROJECT_NAME"
    # Build the base URL: project_endpoint + /openai/v1 (no api-version needed)
    base_url = project_endpoint.rstrip("/") + "/openai/v1"
    
    # get_bearer_token_provider returns a callable; call it to get automatic refresh of the token string
    credential = DefaultAzureCredential()
    token_provider = get_bearer_token_provider(credential, "https://ai.azure.com/.default")
    client = OpenAI(
        base_url=base_url,
        api_key=token_provider(),
    )   
    
    response = client.responses.create(
        model="DeepSeek-R1-0528", # Replace with your deployment name, not the model ID 
        input="What are the top 3 benefits of cloud computing? Be concise.",
        max_output_tokens=500,
    )
    
    print(f"Response: {response.output_text}")
    print(f"Status:   {response.status}")
    print(f"Output tokens: {response.usage.output_tokens}") 
    

La réponse inclut le texte généré, ainsi que les métadonnées de modèle et d’utilisation.

Modèles Foundry pris en charge

Une sélection de modèles Foundry est prise en charge pour une utilisation avec l’API Réponses.

Afficher les modèles pris en charge dans le portail Foundry

Pour afficher la liste complète des modèles pris en charge dans le portail Foundry :

  1. Connectez-vous à Microsoft Foundry. Vérifiez que le commutateur New Foundry est activé. Ces étapes font référence à Foundry (nouveau).
  2. Sélectionnez Découvrir dans le volet supérieur droit, puis Modèles dans le volet gauche.
  3. Ouvrez la liste déroulante Fonctionnalités et sélectionnez le filtre pris en charge par l’agent .

Liste des modèles pris en charge

Cette section répertorie certains des Modèles Foundry pris en charge pour une utilisation avec l'API Réponses. Pour connaître les modèles OpenAI Azure disponibles et pris en charge, consultez modèles OpenAI Azure disponibles.

Models vendus directement par Azure :

  • MAI-DS-R1 : raisonnement déterministe et axé sur la précision.
  • grok-4 : raisonnement de pointe pour la résolution de problèmes complexes et en plusieurs étapes.
  • grok-4-fast-reasoning : raisonnement agentique accéléré optimisé pour l’automatisation du flux de travail.
  • grok-4-fast-non-reasoning : génération à haut débit, faible latence et routage système.
  • grok-3 : raisonnement fort pour les flux de travail complexes au niveau du système.
  • grok-3-mini : modèle léger optimisé pour les cas d’usage interactifs et à volume élevé.
  • Llama-3.3-70B-Instruct : Modèle polyvalent pour les Q&A d’entreprise, prise de décision et orchestration du système.
  • Llama-4-Maverick-17B-128E-Instruct-FP8 : modèle optimisé fp8 qui offre une inférence rapide et économique.
  • DeepSeek-V3-0324 : compréhension modale entre le texte et les images.
  • DeepSeek-V3.1 : raisonnement modal amélioré et récupération fondée.
  • DeepSeek-R1-0528 : raisonnement avancé à long terme et en plusieurs étapes.
  • gpt-oss-120b : modèle écosystème ouvert qui prend en charge la transparence et la reproductibilité.

Résoudre les erreurs courantes

Erreur Cause Résolution
401 Non autorisé Informations d’identification non valides ou expirées Vérifiez que votre DefaultAzureCredential a le rôle d’utilisateur OpenAI de Cognitive Services attribué sur la ressource.
404 Introuvable Nom de point de terminaison ou de déploiement incorrect Vérifiez que l’URL de votre point de terminaison inclut /api/projects/YOUR_PROJECT_NAME et que le nom du déploiement correspond à votre portail Foundry.
Modèle 400 non pris en charge Le modèle ne prend pas en charge l’API Réponses Vérifiez la liste des modèles pris en charge et vérifiez que votre déploiement utilise un modèle compatible.