Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Windows ML fonctionne avec les modèles de format ONNX, car Windows ML est la distribution prise en charge par Windows du runtime ONNX et des fournisseurs d’exécution spécifiques au matériel. Cela signifie que vous pouvez utiliser des millions de modèles préentraînés existants à partir de différentes sources ou entraîner vos propres modèles. Ce guide explique où rechercher, convertir ou entraîner des modèles ONNX.
Pour en savoir plus sur Windows ML, consultez Présentation de Windows ML.
| Options | Détails |
|---|---|
| 1. Utiliser des modèles à partir de Foundry Toolkit | Choisissez parmi plus de 20 modèles OSS (y compris les modèles LLM et d'autres types de modèles) prêts à être optimisés pour une utilisation avec Windows ML à l'aide de l'outil de conversion de Foundry Toolkit. |
| 2. Utiliser d’autres modèles ONNX existants | Parcourir plus de 30 000 modèles ONNX préentraînés à partir de Hugging Face ou d’autres sources |
| 3. Convertir des modèles existants au format ONNX | Parcourez plus de 2 400 000 modèles PyTorch / TensorFlow / etc préentraînés à partir de Hugging Face ou d’autres sources et convertissez-les en ONNX |
| 4. Ajuster les modèles existants | Ajuster plus de 2 400 000 modèles PyTorch / TensorFlow / etc préentraînés à partir de Hugging Face ou d’autres sources pour fonctionner mieux pour votre scénario (et les convertir au format ONNX) |
| 5. Entraîner des modèles | Entraîner vos propres modèles dans PyTorch, TensorFlow ou d’autres frameworks et les convertir en ONNX |
Vous pouvez également choisir parmi des dizaines de modèles et d’API IA prêts à l’emploi dans Microsoft Foundry sur Windows, qui s’exécutent via Windows ML. Consultez Utiliser l’IA locale avec Microsoft Foundry sur Windows pour en savoir plus.
Option 1 : Utiliser des modèles à partir de Foundry Toolkit
Avec l'outil de conversion de Foundry Toolkit, des dizaines de modèles LLM et d'autres types de modèles sont prêts à être optimisés pour une utilisation avec Windows ML. En obtenant un modèle via Foundry Toolkit, vous obtiendrez un modèle ONNX converti optimisé pour la variété de matériel sur lequel Windows ML s'exécute.
Pour parcourir les modèles disponibles, consultez la liste des modèles de Foundry Toolkit.
Option 2 : Utiliser d’autres modèles ONNX existants
Hugging Face héberge des milliers de modèles ONNX que vous pouvez utiliser avec Windows ML. Vous trouverez des modèles ONNX par :
- Explorer le Hugging Face Model Hub
- Filtrage par « ONNX » dans le filtre de bibliothèque
Vous devrez trouver un modèle compatible avec la version du runtime ONNX incluse dans la version de Windows ML que vous utilisez. Consultez les versions du runtime ONNX fournies dans Windows ML pour savoir quelle version d’ONNX Runtime vous utilisez avec Windows ML.
Option 3 : Convertir des modèles existants au format ONNX
Les modèles de PyTorch, TensorFlow ou d’autres frameworks peuvent être convertis au format ONNX et utilisés avec Windows ML.
Hugging Face héberge des millions de modèles que vous pouvez convertir et utiliser avec Windows ML.
Vous devez convertir le modèle à exécuter avec la version du runtime ONNX incluse dans la version de Windows ML que vous utilisez. Consultez les versions du runtime ONNX fournies dans Windows ML pour savoir quelle version d’ONNX Runtime vous utilisez avec Windows ML.
Pour convertir un modèle au format ONNX, consultez la documentation spécifique à l’infrastructure, par exemple :
Option 4 : Ajuster les modèles existants
De nombreux modèles sur Hugging Face ou d’autres sources peuvent être affinés (en suivant les instructions sur les cartes de modèle sur Hugging Face). Vous pouvez ensuite convertir le modèle affiné en ONNX en suivant les instructions de l’option 3 ci-dessus.
Un moyen populaire d’ajuster les modèles est d’utiliser la commande olive finetune. Consultez la documentation Olive pour en savoir plus sur l’utilisation d’Olive.
Option 5 : Entraîner des modèles
Si vous avez besoin d’un modèle pour une tâche spécifique et que vous ne trouvez pas de modèle existant, vous pouvez effectuer l’apprentissage de votre propre modèle dans PyTorch, TensorFlow ou d’autres frameworks.
Une fois que vous avez entraîné votre modèle, suivez les instructions de l’option 3 ci-dessus pour convertir votre modèle au format ONNX.
Étapes suivantes
Une fois que vous avez un modèle ONNX, vous pouvez l’exécuter avec Windows ML sur vos appareils cibles.
- Installer les EPS Windows ML - Télécharger et installer des fournisseurs d’exécution dans Windows ML
- Run ONNX models - Découvrez comment exécuter l’inférence avec Windows ML
Autres solutions
Dans le cadre de Microsoft Foundry sur Windows, vous pouvez également choisir parmi des dizaines de modèles et d’API IA prêts à l’emploi, qui s’exécutent via Windows ML. Consultez Utiliser l’IA locale avec Microsoft Foundry sur Windows pour en savoir plus.