Uw Windows AI-oplossing kiezen

Het Windows AI-landschap is snel gegroeid en de terminologie kan moeilijk te navigeren zijn. Deze pagina snijdt er doorheen: zoek uw scenario, kies het uitgangspunt.

Opties

  • Ready-to-use AI-modellen en API's — Modellen gedistribueerd en beheerd door Microsoft; minimale code, geen ML-expertise nodig.
    • Windows AI APIs — LLM (Phi Silica), afbeeldingsmodellen, OCR, semantische zoekopdrachten en meer. Copilot+ PC vereist.
    • Foundry Local — 20+ opensource-LLM's en spraakmodellen via een OpenAI-compatibele API. Alle Windows hardware.
  • Voer elk model lokaal uit — Breng je eigen ONNX-model met volledige controle over de inferentiepijplijn.
    • Windows ML — Hardwareversnelde inferentie op CPU, GPU of NPU. Alle Windows hardware.
  • Overige
    • Microsoft Foundry — Door de cloud gehoste grensmodellen (GPT-4o, DALL-E, enzovoort) via REST API. Combineer met Foundry Local voor terugval op het apparaat of de cloud.

Terminologiedecoder

De Windows AI-ruimte heeft een snelle rebranding ondergaan. Hier volgt een vertaaltabel voor termen die u kunt tegenkomen:

Term die u hebt gezien Wat betekent het nu?
Copilot Runtime-API's Oude naam (2024) voor Windows AI APIs. Dezelfde functionaliteit, hernoemd.
Windows Copilot Runtime Oude parapluterm (2024) voor de AI-functies heet nu Microsoft Foundry on Windows.
Windows AI Foundry Oude parapluterm (2025) voor de AI-functies heet nu Microsoft Foundry on Windows.
Microsoft Foundry on Windows Huidig paraplumerk voor Windows AI APIs + Foundry Local + Windows ML.
Microsoft Foundry Microsoft's cloud-gebaseerde AI-platform. Verschillend product, verschillend team, vergelijkbare naam.
Phi Silica Het specifieke Phi-model dat is geoptimaliseerd voor en ingebouwd in Windows op Copilot+ pc's. Toegankelijk via Windows AI APIs.
Phi (algemeen) Microsoft familie van kleine taalmodellen. Phi-4 mini etc. zijn beschikbaar op Azure AI en via Foundry Local. Phi Silica is de door NPU geoptimaliseerde versie van postvak IN Windows.
Windows ML (oud) Verouderde op WinRT gebaseerde inferentie-API, standaard aanwezig sinds Windows 10 1809. Werkt nog steeds; geen nieuwe investering.
Windows ML (nieuw) Nieuw NuGet-pakket op basis van ONNX Runtime. Actueel en actief ontwikkeld.
DirectML Niet langer actief ontwikkeld worden (in duurzame engineering). DirectX 12 ML API op laag niveau voor GPU/NPU-versnelling.
Windows ML IHV-specifieke uitvoeringsproviders De vervanging voor DirectML, waardoor betere prestaties worden bereikt door systeemeigen te werken met Windows hardware.
Copilot+ PC Een pc-categorie gedefinieerd door hardware: NPU met 40+ TOPS, 16 GB + RAM, specifieke SoCs. Vereist voor Windows AI APIs; niet vereist voor Foundry Local of Windows ML.
NPU Neurale verwerkingseenheid : toegewezen AI-versnellingshardware in Copilot+-pc's. Windows AI APIs inferentie automatisch via de NPU routeren.

Opties combineren in dezelfde app

Deze opties sluiten elkaar niet uit. Een typisch patroon voor een flexibele AI-functie:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Dit patroon geeft Copilot+ gebruikers de beste ervaring terwijl de functie op alle hardware werkt.

Nog steeds niet zeker?