Freigeben über


Auswählen Ihrer Windows AI-Lösung

Die Windows KI-Landschaft ist schnell gewachsen, und die Terminologie kann schwer zu navigieren sein. Diese Seite durchschneidet es: Suchen Sie Ihr Szenario, wählen Sie Ihren Ausgangspunkt aus.

Tipp

Die Frage nr. 1, die zuerst beantwortet werden soll: Muss Ihre App auf allen Windows-Hardwaren oder nur Copilot+ auf PCs ausgeführt werden?

Entscheidungstabelle

Ich möchte... Empfohlene Option Hardware erforderlich
Hinzufügen eines Chat- oder Zusammenfassungsfeatures zu meiner App mit minimalem Code Windows AI APIs — Phi Silica Copilot+ PC
Generieren, Beschreiben oder Bearbeiten von Bildern auf dem Gerät Windows AI APIs — Bildverarbeitung Copilot+ PC
Lokales Ausführen eines LLM auf einem beliebigen Windows-PC (keine Cloud, keine NPU erforderlich) Foundry Local Windows 10+ (CPU/GPU)
Sprach-zu-Text auf jedem Gerät und jeder Hardware Foundry Local — Flüstern Windows 10+
Ein benutzerdefiniertes oder Hugging Face-Modell mit Hardwarebeschleunigung ausführen Windows ML Windows 10+ (CPU/GPU/NPU)
GPU/NPU-Steuerung auf niedriger Ebene für ein Spiel oder eine grafikintensive App DirectML Windows 10+ (GPU)
Verwenden großer in der Cloud gehosteter Modelle (GPT-4o, DALL-E usw.) Azure KI Beliebige (Internet erforderlich)
Kombinieren Sie Geräte- und Cloud-KI, greifen Sie reibungslos zurück Foundry Local + Azure AI Windows 10+
Semantische In-App-Suche über Dokumente oder Bilder Windows AI APIs — Semantische Suche Copilot+ PC
Optimieren Phi Silica von eigenen Daten Windows AI APIs — LoRA Copilot+ PC

Optionen im Detail

Windows AI APIs — Copilot+ PCs

Am besten geeignet für: Neue Windows-Features mit möglichst wenig Code auf Copilot+ PCs.

Windows AI APIs sind Teil des Windows App SDK und gewähren verpackten Apps Zugriff auf KI-Modelle, die auf Geräten installiert und von Windows verwaltet werden. Sie liefern das Modell nicht, verwalten seinen Lebenszyklus nicht, und es wird über alle Apps hinweg geteilt. Inference wird auf der NPU ausgeführt, um nahezu sofortige, private, akkueffiziente Ergebnisse zu erzielen.

Verfügbare KI-Funktionen sind: Textgenerierung (Phi Silica), Bildbeschreibung, Bildgenerierung, Bildsegmentierung, Bildauflösung, Objektlöschung, OCR, semantische Suche und Video-Superauflösung. Sehen Sie sich die vollständige API-Liste an.

Anforderungen: Copilot+ PC (NPU mit 40+ TOPS — Snapdragon X-Serie, Intel Core Ultra 200V-Serie, AMD Ryzen AI 300 Serie). Ihre App muss verpackt werden (MSIX oder Sparse-Paket).


Foundry Local

Ideal für: LLM- oder Sprache-zu-Text-Funktionen auf jeder Windows-Hardware (kein erforderlich).

Foundry Local führt 20+ Open-Source-Modelle lokal über eine openAI-kompatible REST-API aus. Sie können vorhandenen KI-Code ohne jegliche Änderungen wiederverwenden – richten Sie einfach OpenAIClient auf Ihren lokal bereitgestellten Foundry Local OpenAI-kompatiblen Endpunkt anstelle der Cloud aus (siehe die Foundry Local Dokumentation für Details zum Endpunkt). Modelle werden von Foundry Local (nicht Ihrer App) verwaltet und je nach Gerät auf CPU, GPU oder NPU ausgeführt.

winget install Microsoft.AIFoundry.Local
foundry model run phi-4-mini

Anforderungen: Windows 10 und höher. Leistungsskala mit verfügbarer GPU/NPU.


Windows ML

Am besten geeignet für: Das Ausführen von benutzerdefinierten, fein abgestimmten oder Hugging Face-Modellen mit voller Kontrolle über die Inferenz-Pipeline.

Windows ML (mit der neuen ONNX-Runtime-basierten Version) können Sie Ihr eigenes Modell im ONNX-Format bereitstellen und lokal mit Hardwarebeschleunigung auf CPU, GPU oder NPU ausführen. Es ist die richtige Wahl, wenn die vorhandenen Modelle in Windows AI APIs und Foundry Local Ihr Szenario nicht abdecken oder wenn Sie ein proprietäres Modell integrieren müssen.

Hinweis

Es gibt zwei APIs namens "Windows ML." Das ältere WinRT Windows ML ist die ältere Posteingangs-API, die seit Windows 10 1809 verfügbar ist. Das neue Windows ML (NuGet) ist die aktuelle Version, die auf ONNX-Runtime basiert, mit besserer Leistung und Hardware-Unterstützung. Neue Projekte sollten das neue Windows MLverwenden.

Anforderungen: Windows 10 und höher. Modellkompatibilität und -leistung variieren je nach Hardware.


Azure AI (Cloud und Hybrid)

Am besten geeignet für: Große Grenzmodelle (GPT-4o, DALL-E, Claude, Gemini), Szenarien, die die neuesten Modellfunktionen erfordern, oder Apps, bei denen lokale Hardware nicht angenommen werden kann.

Azure AI bietet Ihnen Zugriff auf die gesamte Palette gehosteter KI-Modelle über standardmäßige REST-APIs. Es ist die richtige Wahl, wenn Ihr Szenario Funktionen erfordert, die über das Angebot von Gerätemodellen hinausgehen oder wenn Sie einen Dienst anstelle einer Client-App erstellen.

Sie können Azure AI mit Foundry Local in derselben App kombinieren – schnelle, private Inferenz lokal ausführen, wenn das Gerät es unterstützt, und auf Azure zurückgreifen, wenn dies nicht der Fall ist.


Terminologiedecoder

Der Windows AI-Bereich hat ein schnelles Rebranding durchlaufen. Hier ist eine Übersetzungstabelle für Ausdrücke, auf die Sie möglicherweise stoßen:

Begriff, den Sie gesehen haben Was es jetzt bedeutet
Copilot-Runtime-APIs Alter Name (2024) für Windows AI APIs. Gleiche Funktionalität, umbenannt.
Windows Copilot Runtime Alter Sammelbegriff für die KI-Features, der jetzt als Microsoft Foundry on Windows bezeichnet wird.
Microsoft Foundry on Windows Dachmarke, die Windows AI APIs + Foundry Local + Windows ML umfasst.
Windows AI Foundry Informelle Kurzform für Microsoft Foundry on Windows. Nicht identisch mit Azure AI Foundry.
Azure AI Foundry Die cloudbasierte KI-Plattform von Microsoft. Verschiedene Produkte, unterschiedliche Teams, ähnliche Namen.
Phi Silica Das spezifische Phi-Modell, das für Windows auf Copilot+ PCs optimiert und integriert ist. Zugriff über Windows AI APIs.
Phi (allgemein) Microsofts Familie kleiner Sprachmodelle. Phi-4-mini sind auf Azure AI und über Foundry Local verfügbar. Phi Silica ist die NPU-optimierte Windows-Posteingangsversion.
Windows ML (alt) Ältere WinRT-basierte Ableitungs-API, Posteingang seit Windows 10 1809. Funktioniert noch; keine neue Investition.
Windows ML (neu) Neues ONNX-Runtime-basiertes NuGet-Paket. Derzeit in aktiver Entwicklung.
DirectML DirectX 12 ML-API auf niedriger Ebene für GPU/NPU-Beschleunigung. Wird intern von Windows ML und ONNX-Runtime verwendet. Die direkte Verwendung erfolgt für erweiterte Szenarien.
Copilot+ PC Eine PC-Kategorie, die durch Hardware definiert ist: NPU mit 40+ TOPS, 16 GB+ RAM, spezifische SoCs. Erforderlich für Windows AI APIs; nicht erforderlich für Foundry Local oder Windows ML.
NPU Neural Processing Unit – dedizierte KI-Beschleunigungshardware auf Copilot+ PCs. Windows AI APIs Routeninferenz wird automatisch durch das NPU durchgeführt.

Kombinieren von Optionen in derselben App

Diese Optionen schließen sich nicht gegenseitig aus. Ein typisches Muster für ein robustes KI-Feature:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Dieses Muster bietet Copilot+ Benutzern die beste Erfahrung, während das Feature auf der gesamten Hardware funktioniert.

Sind Sie noch nicht sicher?