Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
S’applique uniquement au :Portail Foundry (classique). Cet article n’est pas disponible pour le nouveau portail Foundry.
En savoir plus sur le nouveau portail.
Note
Les liens de cet article peuvent ouvrir du contenu dans la nouvelle documentation Microsoft Foundry au lieu de la documentation Foundry (classique) que vous affichez maintenant.
Important
Azure SDK bêta d’inférence d’IA est déconseillé et sera mis hors service le 26 août 2026. Basculez vers l’API OpenAI/v1 généralement disponible avec un SDK OpenAI stable. Suivez le guide de migration pour passer à OpenAI/v1 à l’aide du Kit de développement logiciel (SDK) pour votre langage de programmation préféré.
Tous les modèles déployés sur Microsoft Modèles Foundry prennent en charge l’API d’inférence de modèle IA Azure/c0 et sa famille associée de kits SDK.
Pour utiliser ces kits SDK, connectez-les à l’URI d’inférence du modèle IA Azure (généralement sous la forme https://<resource-name>.services.ai.azure.com/models).
Package Azure d'inférence IA
Le package d’inférence IA Azure vous permet d’utiliser tous les modèles déployés sur la ressource Foundry et de basculer facilement le déploiement du modèle d’un modèle à un autre. Le package d’inférence IA Azure fait partie du Microsoft Foundry SDK.
| Langue | Documentation | Paquet | Exemples |
|---|---|---|---|
| C# | Référence | azure-ai-inference (NuGet) | Exemples C# |
| Java | Référence | azure-ai-inference (Maven) | Exemples Java |
| Javascript | Référence | @azure/ai-inference (npm) | Exemples de JavaScript |
| Python | Référence | azure-ai-inference (PyPi) | exemples Python |
Intégrations
| Cadre | Langue | Documentation | Paquet | Exemples |
|---|---|---|---|---|
| LangChain | Python | Référence | langchain-azure-ai (PyPi) | exemples Python |
| Llama-Index | Python | Référence |
llama-index-llms-azure-inference (PyPi) llama-index-embeddings-azure-inference (PyPi) |
exemples Python |
| Noyau Sémantique | Python | Référence | semantic-kernel[azure] (PyPi) | exemples Python |
| AutoGen | Python | Référence | autogen-ext[azure] (PyPi) | Quickstart |
Limitations
Foundry ne prend pas en charge le Kit de développement logiciel (SDK) Cohere ou le Kit de développement logiciel (SDK) Mistral.
Étape suivante
- Pour voir quels modèles sont actuellement pris en charge, consultez Les modèles et fonctionnalités Foundry.