Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Microsoft Foundry Models est votre destination unique pour la découverte, l'évaluation et le déploiement de modèles IA puissants, que vous construisiez un copilote personnalisé, un agent, améliorez une application existante ou explorez de nouvelles fonctionnalités d'IA.
Avec les modèles Foundry, vous pouvez :
- Explorez un catalogue riche de modèles de pointe à partir de Microsoft, OpenAI, DeepSeek, Hugging Face, Meta, etc.
- Comparez et évaluez des modèles côte à côte à l’aide de tâches réelles et de vos propres données.
- Déployez avec confiance, grâce à des outils intégrés pour l’optimisation, l’observabilité et l’IA responsable.
- Choisissez votre chemin d’accès : apportez votre propre modèle, utilisez un modèle hébergé ou intégrez-en toute transparence à Azure services.
Que vous soyez développeur, scientifique des données ou architecte d’entreprise, Foundry Models vous offre la flexibilité et le contrôle nécessaires pour créer des solutions IA qui s’adaptent de manière sécurisée, responsable et rapide.
Foundry propose un catalogue complet de modèles IA. Il existe plus de 1 900 modèles qui vont des modèles de base, des modèles de raisonnement, des modèles de petite langue, des modèles modals, des modèles spécifiques au domaine et des modèles industriels.
Le catalogue de modèles est organisé en deux catégories principales :
La compréhension de la distinction entre ces catégories vous aide à choisir les modèles appropriés pour vos besoins spécifiques et vos objectifs stratégiques.
Note
Pour tous les modèles, les clients restent responsables des opérations suivantes :
- Respecter la loi dans son utilisation d’un modèle ou d’un système
- Examen des descriptions de modèle dans le catalogue de modèles, cartes de modèle rendues disponibles par le fournisseur de modèles et d’autres documents pertinents
- Sélection d’un modèle approprié pour leur cas d’usage
- La mise en œuvre de mesures appropriées (y compris l'utilisation d'Azure AI Sécurité du Contenu) pour garantir que l'utilisation des outils Foundry par les clients est conforme à la politique d'utilisation acceptable dans les conditions du produit de Microsoft et le code de conduite des services d'IA d'entreprise de Microsoft.
Modèles vendus directement par Azure
Également appelés modèles Direct Azure ou Direct de Azure, ces modèles sont hébergés et vendus par Microsoft sous les conditions des produits Microsoft. Microsoft a évalué ces modèles, et ils sont profondément intégrés à l'écosystème ia de Azure. Les modèles proviennent d’un large éventail de fournisseurs et offrent une intégration améliorée, des performances optimisées et un support direct de Microsoft, y compris des contrats de niveau de service de niveau entreprise (SLA).
Caractéristiques des modèles vendus directement par Azure :
- Assistance disponible de Microsoft.
- Haut niveau d’intégration avec les services et l’infrastructure Azure.
- Sous réserve d'une révision interne basée sur les normes d'IA responsable de Microsoft.
- Les rapports de documentation et de transparence des modèles fournissent une visibilité des clients sur les risques, les atténuations et les limitations du modèle.
- Scalabilité, fiabilité et sécurité de niveau entreprise.
Certains de ces modèles offrent également un débit provisionné fongible, ce qui signifie que vous pouvez utiliser de manière flexible votre quota et vos réservations sur l’un de ces modèles. Pour savoir comment Foundry gère les données que vous fournissez aux modèles Foundry vendus directement par Azure, consultez Data, confidentialité et sécurité des modèles directs Azure dans Microsoft Foundry.
Modèles des partenaires et de la communauté
Ces modèles constituent la grande majorité des modèles Foundry et sont fournis par des organisations tierces de confiance, des partenaires, des laboratoires de recherche et des contributeurs communautaires. Ces modèles offrent des fonctionnalités d’IA spécialisées et diversifiées, couvrant un large éventail de scénarios, d’industries et d’innovations. Les modèles issus des partenaires et de la communauté comprennent la famille des grands modèles de langage développés par Anthropic et des modèles ouverts du hub Hugging Face.
Anthropic comprend la famille Claude de modèles de langage de pointe qui prennent en charge l’entrée de texte et d’image, la sortie de texte, les fonctionnalités multilingues et la vision. Pour obtenir de l’aide sur les modèles anthropices, utilisez Support Microsoft. Pour en savoir plus sur la confidentialité, consultez Données, confidentialité et sécurité des modèles Claude dans Microsoft Foundry (aperçu). Pour connaître les termes qui régissent le traitement des données, consultez l’Addenda sur le traitement des données d’Anthropic et les conditions d’utilisation commerciales d’Anthropic. Pour savoir comment travailler avec les modèles Anthropic, consultez Déployer et utiliser des modèles Claude dans Microsoft Foundry.
Hugging Face Hub comprend des centaines de modèles pour l’inférence en temps réel avec le calcul managé. Hugging Face crée et gère les modèles répertoriés dans cette collection. Pour obtenir de l’aide sur les modèles Hugging Face, utilisez le forum Hugging Face ou le support Hugging Face. Découvrez comment déployer des modèles Hugging Face dans Comment déployer et inférer avec un déploiement de calcul managé (classique).
Important
Pour travailler avec des modèles qui sont déployables sur des calculs gérés, tels que les modèles Hugging Face, utilisez un projet hub dans le portail Foundry (classique). Pour en savoir plus sur les portails Foundry disponibles, consultez Qu’est-ce que Microsoft Foundry ?.
Caractéristiques des modèles des partenaires et de la communauté :
- Développé et pris en charge par des partenaires externes et des contributeurs communautaires
- Diverses gammes de modèles spécialisés qui s’adressent à des niches ou à des cas d’usage larges
- Généralement validé par les fournisseurs eux-mêmes, avec des instructions d’intégration fournies par Azure
- Innovation pilotée par la communauté et disponibilité rapide des modèles de pointe
- Intégration standard Azure IA, avec prise en charge et maintenance gérées par les fournisseurs respectifs
Les modèles des partenaires et de la communauté sont déployables à l’aide d’options de déploiement géré de calcul ou de déploiement sans serveur. Le fournisseur de modèles sélectionne la façon dont les modèles sont déployables. Pour en savoir plus sur les types de déploiement disponibles dans l'option de déploiement serverless, consultez Types de déploiement pour les modèles Microsoft Foundry.
Demander à un modèle d’être inclus dans le catalogue de modèles
Demandez-nous d’ajouter un modèle au catalogue de modèles directement à partir de la page du catalogue de modèles dans le portail Foundry.
- Accédez à la page du catalogue de modèles.
- Dans la barre de recherche, recherchez un modèle qui n’existe pas dans le catalogue, tel que mymodel.
- Sélectionnez Demander un modèle pour partager des détails sur le modèle que vous souhaitez demander.
Choix entre les modèles vendus directement par Azure et les modèles des partenaires et de la communauté
Lorsque vous sélectionnez les modèles Foundry à utiliser, tenez compte des éléments suivants :
- Use cas et exigences : les modèles vendus directement par Azure sont idéaux pour les scénarios nécessitant une intégration approfondie Azure, un support garanti et des contrats SLA d’entreprise. Les modèles des partenaires et de la communauté excellent dans les cas d’usage spécialisés et les scénarios pilotés par l’innovation.
- Support attentes : les modèles vendus directement par Azure sont fournis avec un support et une maintenance robustes fournis par les Microsoft. Les modèles partenaires et communautaires sont pris en charge par leurs fournisseurs, avec différents niveaux de contrat SLA et de structures de support.
- Innovation et spécialisation : Les modèles des partenaires et de la communauté offrent un accès rapide aux innovations spécialisées et aux capacités de niche, souvent développés par des laboratoires de recherche de pointe et des fournisseurs d’IA émergents.
Vue d’ensemble des fonctionnalités du catalogue de modèles
Le catalogue de modèles dans le portail Foundry est le hub pour la découverte et l’utilisation d’un large éventail de modèles pour créer des applications IA génératives. Le catalogue de modèles comprend des centaines de modèles parmi des fournisseurs de modèles tels que Azure OpenAI, Mistral, Meta, Cohere, NVIDIA et Hugging Face, y compris les modèles que Microsoft a entraînés. Les modèles provenant de fournisseurs autres que Microsoft sont des produits non Microsoft tels que définis dans Microsoft Conditions du produit et sont soumis aux conditions fournies avec les modèles.
Recherchez et découvrez des modèles qui répondent à vos besoins par le biais de la recherche et des filtres de mots clés. Le catalogue de modèles offre également le classement des performances du modèle et les métriques de benchmark pour les modèles sélectionnés. Accédez-y en sélectionnant Afficher le classement etcomparer les modèles. Les données de benchmark sont également disponibles sous l’onglet Benchmarks de la carte de modèle.
Voici quelques-uns des filtres disponibles dans le catalogue de modèles :
- Collection : filtrez les modèles en fonction de la collection de fournisseurs de modèles.
- Industrie : filtrez les modèles formés sur un jeu de données spécifique au secteur.
- Fonctionnalités : filtrez les fonctionnalités de modèle uniques telles que le raisonnement et l’appel d’outils.
- Tâches d’inférence : filtrez les modèles en fonction du type de tâche d’inférence.
Voici quelques-uns des détails disponibles dans la carte de modèle :
- Faits rapides : informations clés sur le modèle en un coup d’œil rapide
- Onglet Détails : informations détaillées sur le modèle, telles que la description, les informations de version et le type de données pris en charge
- Onglet Benchmarks : Métriques d’évaluation des performances pour les modèles sélectionnés
- Onglet Déploiements : liste des déploiements existants pour le modèle
- Onglet Licence : Informations légales relatives aux licences de modèle
Options de déploiement de modèle : infrastructures de calcul gérées et déploiements sans serveur
Le catalogue de modèles offre deux options distinctes pour déployer des modèles pour votre utilisation : le calcul managé et les déploiements serverless. Pour en savoir plus sur le traitement des données avec les options de déploiement, consultez Data, confidentialité et sécurité pour l’utilisation des modèles via le catalogue de modèles dans Microsoft portail Foundry (classique). Pour savoir comment Foundry gère les données que vous fournissez aux modèles Foundry vendus directement par Azure, consultez Data, confidentialité et sécurité des modèles directs Azure dans Microsoft Foundry.
Fonctionnalités des options de déploiement de modèle
Les options et fonctionnalités de déploiement disponibles pour chaque modèle varient, comme décrit dans le tableau suivant :
| Fonctionnalités | Calcul managé | Déploiement serverless |
|---|---|---|
| Expérience de déploiement et facturation | Les pondérations de modèle sont déployées sur des machines virtuelles dédiées avec un calcul managé. Un calcul managé, qui peut avoir un ou plusieurs déploiements, rend disponible une API REST pour l’inférence. Vous êtes facturé pour les heures principales de la machine virtuelle que les déploiements utilisent. | Accéder aux modèles via un déploiement qui provisionne une API. L’API fournit l’accès au modèle que Microsoft héberge et gère pour l’inférence. Vous êtes facturé pour les entrées et sorties vers les API, généralement dans les jetons. Les informations de tarification sont fournies avant le déploiement. |
| Authentification d’API | Clés et authentification Microsoft Entra. | Clés et authentification Microsoft Entra. |
| Sécurité du contenu | Utilisez les API du service Azure AI Sécurité du Contenu. | Les filtres Azure AI Sécurité du Contenu sont intégrés aux API d’inférence. Azure AI Sécurité du Contenu filtres sont facturés séparément. |
| Isolation du réseau | Configurer un réseau managé pour Microsoft hubs Foundry (classique). | Les réseaux managés suivent le paramètre d’indicateur d’accès au réseau public (PNA) pour votre ressource Foundry. Pour plus d’informations, consultez la section Isolation réseau pour les modèles déployés via des déploiements serverless plus loin dans cet article. |
Calcul managé
La possibilité de déployer des modèles en tant que calcul managé s’appuie sur les fonctionnalités de plateforme de Azure Machine Learning pour permettre l’intégration transparente de la large collection de modèles dans le catalogue de modèles dans l’ensemble du cycle de vie des opérations LLM (Large Language Model).
Important
Pour utiliser des modèles qui sont déployables sur des calculs managés, utilisez un projet hub dans le portail Foundry (classique). Pour en savoir plus sur les portails Foundry disponibles, consultez Qu’est-ce que Microsoft Foundry ?.
Disponibilité des modèles pour le déploiement en tant que calcul managé
Les modèles sont mis à disposition via des registres Azure Machine Learning. Ces registres permettent une approche d’apprentissage automatique pour hébergement et distribution de ressources Azure Machine Learning. Ces ressources incluent des pondérations de modèle, des runtimes de conteneur pour l’exécution des modèles, des pipelines pour l’évaluation et l’optimisation des modèles et des jeux de données pour les benchmarks et les exemples.
Les registres s’appuient sur une infrastructure hautement évolutive et prête pour l’entreprise qui :
Fournit un accès à faible latence aux artefacts de modèle dans toutes les régions Azure avec géoréplication intégrée.
Prend en charge les exigences de sécurité d’entreprise, telles que la limitation de l’accès aux modèles à l’aide de Azure Policy et le déploiement sécurisé à l’aide de réseaux virtuels managés.
Déploiement de modèles pour l’inférence avec le calcul managé
Les modèles disponibles pour le déploiement vers le calcul managé peuvent être déployés sur Azure Machine Learning calcul managé pour l’inférence en temps réel. Pour effectuer un déploiement sur un calcul managé, vous avez besoin d’un quota de machines virtuelles dans votre abonnement Azure pour que les produits spécifiques exécutent le modèle de manière optimale. Certains modèles vous permettent de déployer sur un quota temporaire partagé pour les tests du modèle.
En savoir plus sur le déploiement de modèles :
- Pour déployer des modèles ouverts sur un calcul managé, consultez Guide pratique pour déployer et déduire un déploiement de calcul managé (classique).
- Pour déployer des modèles Foundry protégés sur un calcul géré avec facturation à l'utilisation, consultez Deploy Microsoft Foundry Models to managed compute with pay-as-you-go billing (classic).
Création d’applications IA dégénératives avec un calcul managé
La fonctionnalité de flux prompt dans Azure Machine Learning offre une expérience idéale pour le prototypage. Utilisez des modèles déployés avec le calcul géré dans le flux de consignes avec l’outil Open Model LLM. Vous pouvez également utiliser l’API REST exposée par le calcul managé dans des outils LLM populaires comme LangChain avec l’extension Azure Machine Learning.
Sécurité du contenu pour les modèles déployés en tant que calcul managé
Le service Azure AI Sécurité du Contenu est disponible pour une utilisation avec un calcul géré pour détecter différentes catégories de contenu nuisible, comme le contenu sexuel, la violence, la haine et les dommages. Vous pouvez également utiliser le service pour détecter les menaces avancées telles que la détection du risque de jailbreak et la détection de texte de matériel protégé.
Pour l'intégration de référence avec Azure AI Sécurité du Contenu pour Llama 2, consultez ce notebook. Vous pouvez également utiliser l’outil Content Safety (Text) dans le flux d’invite pour transmettre des réponses du modèle à Azure AI Sécurité du Contenu pour le filtrage. Vous êtes facturé séparément pour une telle utilisation, comme décrit dans Azure AI Sécurité du Contenu tarification.
Déploiements serverless
Les déploiements serverless permettent de consommer des modèles Foundry en tant qu’API sans les héberger sur votre abonnement. Les modèles sont hébergés dans une infrastructure gérée par Microsoft, qui permet l'accès basé sur l'API au modèle du fournisseur de modèles. L’accès basé sur l’API peut réduire considérablement le coût d’accès à un modèle et simplifier l’expérience d’installation.
Les modèles disponibles pour les déploiements serverless sont proposés par le fournisseur de modèles, mais ils sont hébergés dans une infrastructure Azure gérée par Microsoft et accessibles via l'API. Les fournisseurs de modèles définissent les termes du contrat de licence et définissent le prix d’utilisation de leurs modèles. Service Azure Machine Learning :
- Gère l’infrastructure d’hébergement.
- Rend les API d’inférence disponibles.
- Agit comme traitement de données pour les requêtes envoyées et la production de contenu pour les déploiements serverless.
Types de déploiement sans serveur
L’option de déploiement serverless pour les modèles Foundry offre deux catégories de déploiement principales : standard (paiement par jeton) et provisionné (capacité réservée). Dans chaque catégorie, vous pouvez choisir un traitement global, une zone de données ou un traitement régional en fonction de vos exigences de conformité.
Les types de déploiement serverless disponibles sont les suivants : Global Standard, Global Provisioned, Global Batch, Data Zone Standard, Data Zone Provisioned, Data Zone Batch, Standard, Regional Provisioned et Developer. Pour en savoir plus sur ces types de déploiement et sur la façon de choisir celui qui convient à votre utilisation, consultez Types de déploiement pour les modèles Microsoft Foundry.
Facturation des déploiements sans serveur
L’expérience de découverte, d’abonnement et de consommation pour les modèles déployés en tant que déploiements serverless se trouve dans le portail Foundry et Azure Machine Learning studio. Les utilisateurs acceptent les termes du contrat de licence pour l’utilisation des modèles. Les informations de tarification pour la consommation sont disponibles pendant le déploiement.
Les modèles foundry des partenaires et de la communauté sont facturés via Place de marché Azure, conformément aux Microsoft conditions d’utilisation de la Place de marché commerciale.
Les modèles de Foundry vendus directement par Azure sont facturés via les compteurs Azure en tant que services de consommation premiers. Comme décrit dans les conditions produit, vous achetez des services de consommation de première partie à l'aide des compteurs Azure, mais ils ne sont pas soumis aux conditions de service d'Azure. L’utilisation de ces modèles est soumise aux termes du contrat de licence fourni.
Réglage des modèles
Certains modèles prennent également en charge le réglage précis. Pour ces modèles, vous pouvez utiliser des déploiements de calcul gérés ou sans serveur pour adapter les modèles grâce aux données que vous fournissez. Pour plus d’informations, consultez les modèles Fine-tune avec Microsoft Foundry (classique).
RAG avec des modèles déployés sans serveur
Dans le portail Foundry, utilisez des index vectoriels et une génération augmentée par récupération (RAG) avec des modèles déployés via des déploiements serverless pour générer des incorporations et inférer en fonction des données personnalisées. Ces incorporations et inférences peuvent ensuite générer des réponses spécifiques à votre cas d’usage. Pour plus d’informations, consultez Construire et consommer des index vectoriels dans le portail Microsoft Foundry (classique).
Disponibilité régionale des offres et des modèles
La facturation par jeton est disponible uniquement pour les utilisateurs dont l’abonnement Azure appartient à un compte de facturation dans un pays ou une région où le fournisseur de modèle a rendu l’offre disponible. Si l’offre est disponible dans la région appropriée, l’utilisateur doit disposer d’une ressource de projet dans la région Azure où le modèle est disponible pour le déploiement ou le réglage précis, le cas échéant. Consultez la disponibilité des régions pour les modèles dans les déploiements serverless (classique) pour des informations détaillées.
Sécurité du contenu pour les modèles déployés via des déploiements sans serveur
Pour les modèles de langage déployés via l’API serverless, Azure IA implémente une configuration par défaut de Azure AI Sécurité du Contenu filtres de modération de texte qui détectent du contenu dangereux tel que la haine, l’auto-préjudice, le contenu sexuel et violent. Pour en savoir plus sur le filtrage de contenu, consultez Garde-fous et contrôles pour les modèles directement vendus par Azure.
Conseil
Le filtrage de contenu n’est pas disponible pour certains types de modèles déployés via l’API serverless. Ces types de modèles incluent l’incorporation de modèles et de modèles de série chronologique.
Le filtrage de contenu se produit de façon synchrone lorsque le service traite les invites pour générer du contenu. Vous pouvez être facturé séparément en fonction de Azure AI Sécurité du Contenu tarification pour cette utilisation. Vous pouvez désactiver le filtrage de contenu pour des points de terminaison serverless individuels :
- Au moment où vous déployez d’abord un modèle de langage
- Plus tard, en sélectionnant le bouton bascule de filtrage du contenu sur la page des détails du déploiement
Supposons que vous décidez d’utiliser une API autre que l’API d’inférence de modèle pour travailler avec un modèle déployé via une API serverless. Dans ce cas, le filtrage de contenu n'est pas activé, sauf si vous l'implémentez séparément à l'aide de Azure AI Sécurité du Contenu.
Pour commencer à utiliser Azure AI Sécurité du Contenu, consultez Quickstart : Analyser le contenu du texte. Si vous n’utilisez pas de filtrage de contenu lors de l’utilisation de modèles déployés via l’API serverless, vous risquez davantage d’exposer les utilisateurs à du contenu dangereux.
Isolation réseau pour les modèles déployés via des approches sans serveur
Les points de terminaison des modèles déployés en tant que déploiements serverless suivent le paramètre de l’indicateur d’accès réseau public du hub Foundry contenant le projet où le déploiement se trouve. Pour sécuriser votre déploiement serverless, désactivez l’indicateur d’accès réseau public sur votre hub Foundry. Vous pouvez sécuriser la communication entrante d’un client vers votre point de terminaison à l’aide d’un point de terminaison privé pour le hub.
Pour définir l’indicateur d’accès réseau public pour le hub Foundry :
- Accédez au portail Azure.
- Recherchez le groupe de ressources auquel appartient le hub, puis sélectionnez votre hub Foundry dans les ressources répertoriées pour ce groupe de ressources.
- Dans la page vue d’ensemble du hub, dans le volet gauche, accédez à Paramètres>réseau.
- Sous l’onglet Accès public , configurez les paramètres de l’indicateur d’accès réseau public.
- Enregistrez vos modifications. La propagation des modifications peut prendre jusqu’à cinq minutes.
Limitations
Si vous disposez d’un hub Foundry avec un point de terminaison privé créé avant le 11 juillet 2024, les déploiements serverless ajoutés à des projets dans ce hub ne suivent pas la configuration réseau du hub. Au lieu de cela, créez un point de terminaison privé pour le hub et un nouveau déploiement serverless dans le projet afin que les nouveaux déploiements puissent suivre la configuration réseau du hub.
Si vous disposez d’un hub Foundry avec des déploiements serverless créés avant le 11 juillet 2024 et que vous activez un point de terminaison privé sur ce hub, les déploiements serverless existants ne suivent pas la configuration réseau du hub. Pour que les déploiements serverless dans le hub suivent la configuration réseau du hub, créez à nouveau les déploiements.
Actuellement, le support pour Azure OpenAI sur vos données n'est pas disponible pour les déploiements serverless dans des hubs privés, car dans ces derniers, l'indicateur d'accès réseau public est désactivé.
Toute modification de configuration réseau (par exemple, l’activation ou la désactivation de l’indicateur d’accès réseau public) peut prendre jusqu’à cinq minutes pour se propager.
Cycle de vie du modèle : dépréciation et mise hors service
Les modèles IA évoluent rapidement et lorsqu’une nouvelle version ou un nouveau modèle avec des fonctionnalités mises à jour dans la même famille de modèles devient disponible, les modèles plus anciens peuvent être supprimés dans le catalogue de modèles Foundry. Pour permettre une transition fluide vers une version plus récente du modèle, certains modèles permettent aux utilisateurs d’activer les mises à jour automatiques. Pour en savoir plus sur le cycle de vie des différents modèles, les dates de mise hors service des modèles à venir et les modèles de remplacement suggérés et les versions, consultez :
- Dépréciations et retraits des modèles Azure OpenAI dans Microsoft Foundry
- Dépréciation et mise hors service des Modèles Foundry de Microsoft