Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Important
Azure SDK bêta d’inférence d’IA est déconseillé et sera mis hors service le 26 août 2026. Basculez vers l’API OpenAI/v1 généralement disponible avec un SDK OpenAI stable. Suivez le guide de migration pour passer à OpenAI/v1 à l’aide du Kit de développement logiciel (SDK) pour votre langage de programmation préféré.
Dans cet article, vous apprendrez comment ajouter un nouveau déploiement de modèle à un point de terminaison Foundry Models. Le déploiement est disponible pour l’inférence dans votre ressource Foundry lorsque vous spécifiez le nom de déploiement dans vos demandes.
Conditions préalables
Pour terminer cet article, vous avez besoin des éléments suivants :
Un abonnement Azure. Si vous utilisez GitHub Modèles, vous pouvez mettre à niveau votre expérience et créer un abonnement Azure dans le processus. Pour plus d’informations, consultez Upgrade de modèles GitHub vers des modèles foundry.
Un projet nommé Foundry. Ce type de projet est géré sous une ressource Foundry (anciennement Azure ressource AI Services). Si vous n'avez pas de projet Foundry, consultez Créer un projet pour Microsoft Foundry.
Azure autorisations de contrôle d’accès en fonction du rôle (RBAC) pour créer et gérer des déploiements. Vous avez besoin du rôle Contributeur Cognitive Services ou des autorisations équivalentes pour la ressource Foundry.
Les modèles Foundry des partenaires et de la communauté nécessitent l’accès à Place de marché Azure. Vérifiez que vous disposez des autorisations requises pour vous abonner aux offres de modèle. Foundry Models vendus directement par Azure n'ont pas cette exigence.
Installez les Azure CLI (version 2.60 ou ultérieure) et l’extension
cognitiveservices.az extension add -n cognitiveservicesCertaines commandes de ce didacticiel utilisent l’outil
jq, qui peut ne pas être installé sur votre système. Pour obtenir des instructions d’installation, consultez Téléchargerjq.Identifiez les informations suivantes :
VOTRE ID d’abonnement Azure
Nom de votre ressource Foundry
Groupe de ressources où vous avez déployé la ressource Foundry
Ajouter des modèles
Pour ajouter un modèle, identifiez d’abord le modèle que vous souhaitez déployer. Interrogez les modèles disponibles comme suit :
Connectez-vous à votre abonnement Azure.
az loginSi vous avez plusieurs abonnements, sélectionnez l’abonnement où se trouve votre ressource.
az account set --subscription $subscriptionIdDéfinissez les variables d’environnement suivantes avec le nom de la ressource Foundry que vous envisagez d’utiliser et de groupe de ressources.
accountName="<ai-services-resource-name>" resourceGroupName="<resource-group>" location="eastus2"Si vous n’avez pas encore créé de ressource Foundry, créez-en une.
az cognitiveservices account create -n $accountName -g $resourceGroupName --custom-domain $accountName --location $location --kind AIServices --sku S0Référence : az cognitiveservices account
Vérifiez quels modèles sont disponibles et sous quelle référence SKU. Les SKUs, également appelées types de déploiement, définissent comment les demandes sont traitées par l'infrastructure Azure. Les modèles peuvent offrir différents types de déploiement. La commande suivante répertorie toutes les définitions de modèle disponibles :
az cognitiveservices account list-models \ -n $accountName \ -g $resourceGroupName \ | jq '.[] | { name: .name, format: .format, version: .version, sku: .skus[0].name, capacity: .skus[0].capacity.default }'La sortie inclut des modèles disponibles avec leurs propriétés :
{ "name": "Phi-4-mini-instruct", "format": "Microsoft", "version": "1", "sku": "GlobalStandard", "capacity": 1 }Référence : az cognitiveservices account list-models
Identifiez le modèle que vous souhaitez déployer. Vous avez besoin des propriétés
name,format,versionetsku. La propriétéformatindique le fournisseur offrant le modèle. Selon le type de déploiement, vous pouvez également avoir besoin de capacité.Ajoutez le déploiement du modèle à la ressource. L’exemple suivant ajoute
Phi-4-mini-instruct:az cognitiveservices account deployment create \ -n $accountName \ -g $resourceGroupName \ --deployment-name Phi-4-mini-instruct \ --model-name Phi-4-mini-instruct \ --model-version 1 \ --model-format Microsoft \ --sku-capacity 1 \ --sku-name GlobalStandardRéférence : déploiement de compte az cognitiveservices
Vérifiez que le déploiement s’est terminé correctement :
az cognitiveservices account deployment show \ --deployment-name Phi-4-mini-instruct \ -n $accountName \ -g $resourceGroupName \ | jq '.properties.provisioningState'La sortie doit s’afficher
"Succeeded". Le modèle est prêt à être utilisé une fois l’approvisionnement terminé.Référence : az cognitiveservices account list-models
Vous pouvez déployer le même modèle plusieurs fois si nécessaire tant qu’il se trouve sous un autre nom de déploiement. Cette fonctionnalité est utile si vous souhaitez tester différentes configurations pour un modèle donné, y compris les filtres de contenu.
Utiliser le modèle
Note
Cette section est identique pour les approches CLI et Bicep.
Vous pouvez utiliser des modèles déployés en utilisant les points d'accès pour les modèles Foundry pour la ressource. Lorsque vous construisez votre demande, spécifiez le paramètre model et insérez le nom de déploiement du modèle que vous avez créé. Vous pouvez obtenir par programme l’URI du point de terminaison d’inférence à l’aide du code suivant :
Point de terminaison d’inférence
az cognitiveservices account show -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'
Pour effectuer des requêtes au point de terminaison Foundry Models, ajoutez l’itinéraire models. Par exemple : https://<resource>.services.ai.azure.com/models. Consultez la référence de l’API d’inférence Azure AI Model Inference pour toutes les opérations prises en charge.
Touches d’inférence
az cognitiveservices account keys list -n $accountName -g $resourceGroupName
Gérer les déploiements
Vous pouvez voir tous les déploiements disponibles à l’aide de l’interface CLI :
Exécutez la commande suivante pour afficher tous les déploiements actifs :
az cognitiveservices account deployment list -n $accountName -g $resourceGroupNameRéférence : az cognitiveservices account deployment list
Vous pouvez voir les détails d’un déploiement donné :
az cognitiveservices account deployment show \ --deployment-name "Phi-4-mini-instruct" \ -n $accountName \ -g $resourceGroupNameRéférence : az cognitiveservices account deployment show
Vous pouvez supprimer un déploiement donné comme suit :
az cognitiveservices account deployment delete \ --deployment-name "Phi-4-mini-instruct" \ -n $accountName \ -g $resourceGroupNameRéférence : az cognitiveservices account deployment delete
Installez le Azure CLI.
Identifiez les informations suivantes :
- VOTRE ID d’abonnement Azure
Nom de votre ressource Foundry (anciennement Azure ressource AI Services)
Groupe de ressources où la ressource Foundry est déployée
Nom du modèle, fournisseur, version et référence SKU que vous souhaitez déployer. Vous pouvez utiliser le portail Foundry ou le Azure CLI pour trouver ces informations. Dans cet exemple, vous déployez le modèle suivant :
-
Nom du modèle :
Phi-4-mini-instruct -
Provider :
Microsoft -
Version :
1 - Type de déploiement : Standard global
-
Nom du modèle :
Configurer l’environnement
L’exemple de cet article est basé sur des exemples de code contenus dans le référentiel Azure-Samples/azureai-model-inference-bicep. Pour exécuter les commandes localement sans avoir à copier ou coller du contenu du fichier, clonez le référentiel :
git clone https://github.com/Azure-Samples/azureai-model-inference-bicep
Les fichiers de cet exemple sont dans :
cd azureai-model-inference-bicep/infra
Autorisations requises pour s’abonner aux modèles des partenaires et de la communauté
Modèles Foundry de partenaires et de la communauté disponibles pour le déploiement (par exemple, les modèles Cohere) nécessitent Place de marché Azure. Les fournisseurs de modèles définissent les termes du contrat de licence et définissent le prix d’utilisation de leurs modèles à l’aide de Place de marché Azure.
Lors du déploiement de modèles tiers, vérifiez que vous disposez des autorisations suivantes dans votre compte :
- Dans l’abonnement Azure :
Microsoft.MarketplaceOrdering/agreements/offers/plans/readMicrosoft.MarketplaceOrdering/agreements/offers/plans/sign/actionMicrosoft.MarketplaceOrdering/offerTypes/publishers/offers/plans/agreements/readMicrosoft.Marketplace/offerTypes/publishers/offers/plans/agreements/readMicrosoft.SaaS/register/action
- Sur le groupe de ressources, pour créer et utiliser la ressource SaaS :
Microsoft.SaaS/resources/readMicrosoft.SaaS/resources/write
Les rôles intégrés Owner et Contributor intégrés sur l’abonnement Azure incluent ces autorisations. Si vous n’avez pas les autorisations requises, demandez à votre administrateur d’abonnement de vous affecter le rôle Contributeur ou de créer un rôle personnalisé qui inclut les actions répertoriées.
Pour vérifier vos autorisations, accédez au portail Azure, ouvrez votre abonnement, sélectionnez Access control (IAM)>Check access et passez en revue vos rôles attribués.
Conseil
Microsoft.SaaS/register/action est une inscription ponctuelle du fournisseur de ressources SaaS sur l’abonnement. Après l’inscription, il n’est pas nécessaire de répéter chaque déploiement.
Ajouter le modèle
Utilisez le modèle
ai-services-deployment-template.biceppour décrire les déploiements de modèles :ai-services-deployment-template.bicep
@description('Name of the Azure AI services account') param accountName string @description('Name of the model to deploy') param modelName string @description('Version of the model to deploy') param modelVersion string @allowed([ 'AI21 Labs' 'Cohere' 'Core42' 'DeepSeek' 'xAI' 'Meta' 'Microsoft' 'Mistral AI' 'OpenAI' ]) @description('Model provider') param modelPublisherFormat string @allowed([ 'GlobalStandard' 'DataZoneStandard' 'Standard' 'GlobalProvisioned' 'Provisioned' ]) @description('Model deployment SKU name') param skuName string = 'GlobalStandard' @description('Content filter policy name') param contentFilterPolicyName string = 'Microsoft.DefaultV2' @description('Model deployment capacity') param capacity int = 1 resource modelDeployment 'Microsoft.CognitiveServices/accounts/deployments@2024-04-01-preview' = { name: '${accountName}/${modelName}' sku: { name: skuName capacity: capacity } properties: { model: { format: modelPublisherFormat name: modelName version: modelVersion } raiPolicyName: contentFilterPolicyName == null ? 'Microsoft.Nill' : contentFilterPolicyName } }Exécutez le déploiement :
RESOURCE_GROUP="<resource-group-name>" ACCOUNT_NAME="<azure-ai-model-inference-name>" MODEL_NAME="Phi-4-mini-instruct" PROVIDER="Microsoft" VERSION=1 az deployment group create \ --resource-group $RESOURCE_GROUP \ --template-file ai-services-deployment-template.bicep \ --parameters accountName=$ACCOUNT_NAME modelName=$MODEL_NAME modelVersion=$VERSION modelPublisherFormat=$PROVIDERVérifiez que le déploiement s’est terminé correctement :
az cognitiveservices account deployment show \ --deployment-name $MODEL_NAME \ -n $ACCOUNT_NAME \ -g $RESOURCE_GROUP \ | jq '.properties.provisioningState'La sortie doit s’afficher
"Succeeded".
Utiliser le modèle
Note
Cette section est identique pour les approches CLI et Bicep.
Vous pouvez utiliser des modèles déployés en utilisant les points d'accès pour les modèles Foundry pour la ressource. Lorsque vous construisez votre demande, spécifiez le paramètre model et insérez le nom de déploiement du modèle que vous avez créé. Vous pouvez obtenir par programme l’URI du point de terminaison d’inférence à l’aide du code suivant :
Point de terminaison d’inférence
az cognitiveservices account show -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'
Pour effectuer des requêtes au point de terminaison Foundry Models, ajoutez l’itinéraire models. Par exemple : https://<resource>.services.ai.azure.com/models. Consultez la référence de l’API d’inférence Azure AI Model Inference pour toutes les opérations prises en charge.
Touches d’inférence
az cognitiveservices account keys list -n $accountName -g $resourceGroupName
Dépannage
| Erreur | Cause | Résolution |
|---|---|---|
| Quota dépassé | Votre abonnement a atteint le quota de déploiement pour la référence SKU ou la région sélectionnée. | Vérifiez votre quota dans le portail Foundry ou demandez une augmentation via support Azure. |
| Échec de l’autorisation | L’identité utilisée n’a pas le rôle RBAC requis. | Attribuez le rôle Contributeur Cognitive Services sur la ressource Foundry. |
| Modèle non disponible | Le modèle n’est pas disponible dans votre région ou abonnement. | Exécutez az cognitiveservices account list-models pour vérifier les modèles et régions disponibles. |
| Extension introuvable | L’extension cognitiveservices CLI n’est pas installée. |
Exécutez az extension add -n cognitiveservices pour installer l’extension. |
Contenu connexe
- Générer des réponses de texte avec des modèles Foundry
- Types de déploiement dans les modèles Foundry
- Déployer des modèles Foundry sur un calcul managé
- Quotas et limites pour les modèles Foundry