Choisir votre solution IA Windows

Le paysage Windows IA s’est développé rapidement et la terminologie peut être difficile à parcourir. Cette page vous simplifie la tâche : trouvez votre scénario, choisissez votre point de départ.

Options

  • Modèles et API d’IA prêts à l'emploi — Modèles distribués et gérés par Microsoft ; code minimal, aucune expertise ML n’est requise.
    • Windows AI APIs — LLM (Phi Silica), modèles d’imagerie, OCR, recherche sémantique, etc. Copilot+ PC requis.
    • Foundry Local — 20 machines virtuelles open source et modèles vocaux via une API compatible OpenAI. Tout matériel Windows.
  • Exécutez un modèle localement : apportez votre propre modèle ONNX avec un contrôle total sur le pipeline d’inférence.
    • Windows ML — Inférence accélérée par matériel sur CPU, GPU ou NPU. Tout matériel Windows.
  • Autres
    • Microsoft Foundry — Modèles frontière hébergés par le cloud (GPT-4o, DALL-E, etc.) via l’API REST. Combinez avec Foundry Local pour un repli sur l’appareil ou le cloud.

Décodeur de terminologie

L'espace IA de Windows a subi un rebranding rapide. Voici un tableau de traduction pour les termes que vous pouvez rencontrer :

Terme que vous avez vu Ce qu’il signifie maintenant
API d'exécution Copilot Ancien nom (2024) pour Windows AI APIs. Même fonctionnalité, renommée.
Windows Copilot Runtime Ancien terme générique (2024) pour les fonctionnalités IA désormais appelées Microsoft Foundry on Windows.
Windows AI Foundry Ancien terme parapluie (2025) pour les fonctionnalités d’IA désormais appelées Microsoft Foundry on Windows.
Microsoft Foundry on Windows Marque parapluie actuelle couvrant Windows AI APIs + Foundry Local + Windows ML.
Microsoft Foundry Microsoft plateforme IA basée sur le cloud. Produit différent, équipe différente, nom similaire.
Phi Silica Modèle Phi spécifique optimisé pour Windows et intégré dans les PC Copilot+. Accessible via Windows AI APIs.
Phi (général) La famille de petits modèles linguistiques de Microsoft. Phi-4-mini etc. sont disponibles sur Azure IA et via Foundry Local. Phi Silica est la version de boîte de réception optimisée pour les Windows NPU.
Windows ML (ancien) API d’inférence winRT héritée, boîte de réception depuis Windows 10 1809. Fonctionne toujours ; aucun nouvel investissement.
Windows ML (nouveau) Nouveau package NuGet basé sur ONNX Runtime. Actuellement opérationnel et en cours de développement actif.
DirectML N’étant plus activement développé (en ingénierie soutenue). API DirectX 12 ML de bas niveau pour l’accélération GPU/NPU.
Windows ML fournisseurs d’exécution propres à IHV Le remplacement de DirectML, conçu pour augmenter les performances en fonctionnant nativement avec le matériel Windows.
Copilot+ PC Catégorie PC définie par le matériel : NPU avec 40+ TOPS, 16 Go de RAM, soCs spécifiques. Obligatoire pour Windows AI APIs ; non requis pour Foundry Local ou Windows ML.
NPU Unité de traitement neuronal : matériel d’accélération IA dédié dans Copilot+ PC. Windows AI APIs déduction de l'itinéraire automatiquement via le NPU.

Combiner des options dans la même application

Ces options ne s’excluent pas mutuellement. Modèle classique pour une fonctionnalité d’IA résiliente :

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Ce modèle donne aux Copilot+ utilisateurs la meilleure expérience tout en assurant que la fonctionnalité fonctionne sur tout le matériel.

Vous ne savez pas encore ?