Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’applique uniquement au :Portail Foundry (classique). Cet article n’est pas disponible pour le nouveau portail Foundry.
En savoir plus sur le nouveau portail.
Note
Les liens de cet article peuvent ouvrir du contenu dans la nouvelle documentation Microsoft Foundry au lieu de la documentation Foundry (classique) que vous affichez maintenant.
Le catalogue de modèles dans Microsoft Foundry est le hub qui permet de découvrir et d’utiliser un large éventail de modèles Foundry pour la création d’applications IA génératives. Vous devez déployer des modèles pour les rendre disponibles pour recevoir des demandes d’inférence. Foundry offre une suite complète d’options de déploiement pour les modèles Foundry, en fonction de vos besoins et de vos besoins en matière de modèle.
Options de déploiement
Foundry fournit plusieurs options de déploiement en fonction du type de modèles et des ressources que vous devez provisionner. Les options de déploiement suivantes sont disponibles :
- Déploiement standard dans les ressources Foundry
- Déploiement vers des points de terminaison d’API serverless
- Déploiement vers des calculs managés
Le portail Foundry peut choisir automatiquement une option de déploiement en fonction de votre environnement et de votre configuration. Utilisez les ressources Foundry pour le déploiement dans la mesure du possible. Les modèles qui prennent en charge plusieurs options de déploiement utilisent par défaut les ressources Foundry pour le déploiement. Pour accéder à d’autres options de déploiement, utilisez le kit de développement logiciel (SDK) Azure CLI ou Azure Machine Learning pour le déploiement.
Déploiement standard dans les ressources Foundry
Les ressources Foundry sont l’option de déploiement préférée dans Foundry. Il offre la plus large gamme de fonctionnalités, notamment le traitement régional, de zone de données ou global, et propose des options de débit standard et provisionné (PTU). Les modèles phares des modèles Foundry prennent en charge cette option de déploiement.
Cette option de déploiement est disponible dans :
- Ressources de fonderie
- ressources Azure OpenAI1
- Azure hub IA, lorsqu’il est connecté à une ressource Foundry
Si vous utilisez les ressources Azure OpenAI, le catalogue de modèles affiche uniquement Azure OpenAI dans Foundry Models pour le déploiement. Vous pouvez obtenir la liste complète des modèles Foundry en effectuant une mise à niveau vers une ressource Foundry.
Pour commencer à utiliser le déploiement standard dans les ressources Foundry, consultez Procédure : Déployer des modèles sur des modèles Foundry.
Point de terminaison d’API serverless
Cette option de déploiement est disponible uniquement dans lesressources AI Hub. Il vous permet de créer des points de terminaison dédiés pour héberger le modèle, accessible via une API. Les modèles Foundry prennent en charge les points de terminaison d’API serverless avec facturation avec paiement à l’utilisation, et vous pouvez créer uniquement des déploiements régionaux pour les points de terminaison d’API serverless.
Pour commencer le déploiement sur un point de terminaison d'API sans serveur, consultez Déployer des modèles en tant que déploiements d'API sans serveur.
Calcul managé
Cette option de déploiement est disponible uniquement dans lesressources AI Hub. Il vous permet de créer un point de terminaison dédié pour héberger le modèle dans un calcul dédié. Vous devez disposer d’un quota de calcul dans votre abonnement pour héberger le modèle, et vous êtes facturé par durée de fonctionnement du calcul.
Le déploiement de calcul managé est requis pour les collections de modèles qui incluent :
- Hugging Face
- Microservices d’inférence NVIDIA (NIMs)
- Modèles industriels (Saifr, Rockwell, Bayer, Cerence, Sight Machine, Page AI, SDAIA)
- Databricks
- Modèles personnalisés
Pour commencer, consultez Comment déployer et inférencer un déploiement de calcul managé et déployer des modèles Foundry sur un calcul géré avec facturation avec paiement à l’utilisation.
Fonctionnalités des options de déploiement
Utilisez des déploiements standard dans les ressources Foundry dans la mesure du possible. Cette option de déploiement fournit les fonctionnalités les plus nombreuses parmi les options de déploiement disponibles. Le tableau suivant répertorie des détails sur les fonctionnalités spécifiques pour chaque option de déploiement :
| Capacité | Déploiement standard dans les ressources Foundry | Point de terminaison d’API serverless | Calcul managé |
|---|---|---|---|
| Quels modèles peuvent être déployés ? |
Foundry Models vendus directement par Azure Modèles de fonderie provenant de partenaires et de la communauté |
Modèles Foundry avec facturation à l'utilisation | Modèles ouverts et personnalisés |
| Ressource de déploiement | Ressource Fonderie | Projet IA (dans la ressource du hub IA) | Projet IA (dans la ressource du hub IA) |
| Nécessite des Hubs IA | Non | Oui | Oui |
| Options de traitement des données | Régional Zone de données Mondiale |
Régional | Régional |
| Mise en réseau privé | Oui | Oui | Oui |
| Filtrage de contenu | Oui | Oui | Non |
| Filtrage de contenu personnalisé | Oui | Non | Non |
| Authentification sans clé | Oui | Non | Non |
| Bases de facturation | Utilisation des jetons et unités de débit approvisionnées | Utilisation du jeton2 | Heures de base de calcul3 |
2 Une infrastructure de point de terminaison minimale est facturée par minute. Vous n’êtes pas facturé pour l’infrastructure qui héberge le modèle dans un déploiement sans serveur. Après avoir supprimé le point de terminaison, aucun autre frais n’est facturé.
3 La facturation est calculée à la minute, en fonction du niveau de produit et du nombre d’instances utilisées dans le déploiement depuis sa création. Après avoir supprimé le point de terminaison, aucun autre frais n’est facturé.