Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Le paysage Windows IA s’est développé rapidement et la terminologie peut être difficile à parcourir. Cette page vous simplifie la tâche : trouvez votre scénario, choisissez votre point de départ.
Options
-
Modèles et API d’IA prêts à l'emploi — Modèles distribués et gérés par Microsoft ; code minimal, aucune expertise ML n’est requise.
- Windows AI APIs — LLM (Phi Silica), modèles d’imagerie, OCR, recherche sémantique, etc. Copilot+ PC requis.
- Foundry Local — 20 machines virtuelles open source et modèles vocaux via une API compatible OpenAI. Tout matériel Windows.
-
Exécutez un modèle localement : apportez votre propre modèle ONNX avec un contrôle total sur le pipeline d’inférence.
- Windows ML — Inférence accélérée par matériel sur CPU, GPU ou NPU. Tout matériel Windows.
-
Autres
- Microsoft Foundry — Modèles frontière hébergés par le cloud (GPT-4o, DALL-E, etc.) via l’API REST. Combinez avec Foundry Local pour un repli sur l’appareil ou le cloud.
Décodeur de terminologie
L'espace IA de Windows a subi un rebranding rapide. Voici un tableau de traduction pour les termes que vous pouvez rencontrer :
| Terme que vous avez vu | Ce qu’il signifie maintenant |
|---|---|
| API d'exécution Copilot | Ancien nom (2024) pour Windows AI APIs. Même fonctionnalité, renommée. |
| Windows Copilot Runtime | Ancien terme générique (2024) pour les fonctionnalités IA désormais appelées Microsoft Foundry on Windows. |
| Windows AI Foundry | Ancien terme parapluie (2025) pour les fonctionnalités d’IA désormais appelées Microsoft Foundry on Windows. |
| Microsoft Foundry on Windows | Marque parapluie actuelle couvrant Windows AI APIs + Foundry Local + Windows ML. |
| Microsoft Foundry | Microsoft plateforme IA basée sur le cloud. Produit différent, équipe différente, nom similaire. |
| Phi Silica | Modèle Phi spécifique optimisé pour Windows et intégré dans les PC Copilot+. Accessible via Windows AI APIs. |
| Phi (général) | La famille de petits modèles linguistiques de Microsoft. Phi-4-mini etc. sont disponibles sur Azure IA et via Foundry Local. Phi Silica est la version de boîte de réception optimisée pour les Windows NPU. |
| Windows ML (ancien) | API d’inférence winRT héritée, boîte de réception depuis Windows 10 1809. Fonctionne toujours ; aucun nouvel investissement. |
| Windows ML (nouveau) | Nouveau package NuGet basé sur ONNX Runtime. Actuellement opérationnel et en cours de développement actif. |
| DirectML | N’étant plus activement développé (en ingénierie soutenue). API DirectX 12 ML de bas niveau pour l’accélération GPU/NPU. |
| Windows ML fournisseurs d’exécution propres à IHV | Le remplacement de DirectML, conçu pour augmenter les performances en fonctionnant nativement avec le matériel Windows. |
| Copilot+ PC | Catégorie PC définie par le matériel : NPU avec 40+ TOPS, 16 Go de RAM, soCs spécifiques. Obligatoire pour Windows AI APIs ; non requis pour Foundry Local ou Windows ML. |
| NPU | Unité de traitement neuronal : matériel d’accélération IA dédié dans Copilot+ PC. Windows AI APIs déduction de l'itinéraire automatiquement via le NPU. |
Combiner des options dans la même application
Ces options ne s’excluent pas mutuellement. Modèle classique pour une fonctionnalité d’IA résiliente :
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
Ce modèle donne aux Copilot+ utilisateurs la meilleure expérience tout en assurant que la fonctionnalité fonctionne sur tout le matériel.
Vous ne savez pas encore ?
- vue d’ensemble de Microsoft Foundry on Windows — aperçu complet de la plateforme
- Ai Dev Gallery : parcourir des exemples de travail pour chaque API
- Stack Overflow — étiquette windows-ai