Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Windows ML werkt met ONNX-indelingsmodellen, omdat Windows ML de door Windows ondersteunde distributie is van de ONNX Runtime en hardwarespecifieke uitvoeringsproviders. Dit betekent dat u miljoenen bestaande vooraf getrainde modellen uit verschillende bronnen kunt gebruiken of uw eigen modellen kunt trainen. In deze handleiding wordt beschreven waar u ONNX-modellen kunt zoeken, converteren of trainen.
Zie Wat is Windows ML voor meer informatie over Windows ML.
| Options | Bijzonderheden |
|---|---|
| 1. Modellen uit Foundry Toolkit gebruiken | Kies uit over 20+ OSS-modellen (inclusief LLM's en andere typen modellen) die kant-en-klaar zijn voor gebruik met Windows ML met behulp van Het conversiehulpprogramma vanFoundry Toolkit |
| 2. Andere bestaande ONNX-modellen gebruiken | Blader door meer dan 30.000+ vooraf getrainde ONNX-modellen van Hugging Face of andere bronnen |
| 3. Bestaande modellen converteren naar ONNX-indeling | Blader door meer dan 2.400.000+ vooraf getrainde PyTorch / TensorFlow / etc-modellen van Hugging Face of andere bronnen en converteer ze naar ONNX |
| 4. Bestaande modellen verfijnen | Verfijn meer dan 2.400.000 + vooraf getrainde PyTorch / TensorFlow / etc-modellen van Hugging Face of andere bronnen om beter te werken voor uw scenario (en converteer ze naar ONNX-indeling) |
| 5. Modellen trainen | Train uw eigen modellen in PyTorch, TensorFlow of andere frameworks en converteer ze naar ONNX |
U kunt ook kiezen uit tientallen kant-en-klare AI-modellen en API's in Microsoft Foundry op Windows, die worden uitgevoerd via Windows ML. Zie Gebruik lokale AI met Microsoft Foundry op Windows voor meer informatie.
Optie 1: Modellen uit Foundry Toolkit gebruiken
Met het Conversieprogramma van de Foundry Toolkit zijn er tientallen LLM's en andere soorten modellen die geoptimaliseerd kunnen worden voor gebruik met Windows ML. Door een model te verkrijgen via Foundry Toolkit krijgt u een geconverteerd ONNX-model dat is geoptimaliseerd voor de verschillende hardware waarop Windows ML wordt uitgevoerd.
Zie de modellijst van Foundry Toolkit om door de beschikbare modellen te bladeren.
Optie 2: Andere bestaande ONNX-modellen gebruiken
Hugging Face host duizenden ONNX-modellen die u met Windows ML kunt gebruiken. U kunt ONNX-modellen vinden op:
- Bladeren door de hub voor het knuffelen van gezichtsmodellen
- Filteren op ONNX in het bibliotheekfilter
U moet een model vinden dat compatibel is met de ONNX Runtime-versie die is opgenomen in de versie van Windows ML die u gebruikt. Zie ONNX Runtime-versies die zijn verzonden in Windows ML om erachter te komen welke versie van ONNX Runtime u gebruikt met Windows ML.
Optie 3: Bestaande modellen converteren naar ONNX-indeling
Modellen van PyTorch, TensorFlow of andere frameworks kunnen worden geconverteerd naar de ONNX-indeling en worden gebruikt met Windows ML.
Hugging Face host miljoenen modellen die u kunt converteren en gebruiken met Windows ML.
U moet het model converteren om te worden uitgevoerd met de ONNX Runtime-versie die is opgenomen in de versie van Windows ML die u gebruikt. Zie ONNX Runtime-versies die zijn verzonden in Windows ML om erachter te komen welke versie van ONNX Runtime u gebruikt met Windows ML.
Als u een model wilt converteren naar een ONNX-indeling, raadpleegt u de frameworkspecifieke documentatie, bijvoorbeeld:
- Handleiding voor het converteren van PyTorch-modellen
- Handleiding Converteren van TensorFlow-modellen
Optie 4: Bestaande modellen verfijnen
Veel modellen op Hugging Face of andere bronnen kunnen worden afgestemd (volg de instructies op de modelkaarten op Hugging Face). Vervolgens kunt u het nauwkeurig afgestemde model converteren naar ONNX volgens de instructies in optie 3 hierboven.
Een populaire manier om modellen af te stemmen is het gebruik van de olive finetune-opdracht. Zie de Olive-documentatie voor meer informatie over het gebruik van Olive.
Optie 5: Modellen trainen
Als u een model voor een specifieke taak nodig hebt en een bestaand model niet kunt vinden, kunt u uw eigen model trainen in PyTorch, TensorFlow of andere frameworks.
Nadat u uw model hebt getraind, volgt u de instructies in optie 3 hierboven om uw model te converteren naar de ONNX-indeling.
Volgende stappen
Zodra u een ONNX-model hebt, kunt u het uitvoeren met Windows ML op uw doelapparaten.
- Windows ML-EPs installeren - Uitvoeringsproviders downloaden en installeren in Windows ML
- Run ONNX-modellen - Meer informatie over het uitvoeren van deductie met Windows ML
Andere oplossingen
Als onderdeel van Microsoft Foundry op Windows kunt u ook kiezen uit tientallen kant-en-klare AI-modellen en API's, die worden uitgevoerd via Windows ML. Zie Gebruik lokale AI met Microsoft Foundry op Windows voor meer informatie.