Windows AI ソリューションを選択する

Windows AI のランドスケープは急速に拡大しており、用語の移動が困難な場合があります。 このページでは、シナリオを見つけ、出発点を選択します。

オプション

  • Ready-to-use AI モデルと API — Microsoftによって分散および管理されるモデル。最小限のコード、ML の専門知識は必要ありません。
    • Windows AI APIs — LLM (Phi Silica)、イメージング モデル、OCR、セマンティック検索など。 Copilot+ PC が必要です。
    • Foundry Local — OpenAI 互換 API を介した 20 以上のオープンソース LLM と音声モデル。 任意のWindowsハードウェア。
  • 任意のモデルをローカルで実行 する - 推論パイプラインを完全に制御して独自の ONNX モデルを使用します。
    • Windows ML — CPU、GPU、または NPU でのハードウェアアクセラレータによる推論。 任意のWindowsハードウェア。
  • その他
    • Microsoft Foundry — REST API 経由でクラウドでホストされるフロンティア モデル (GPT-4o、DALL-E など)。 Foundry Localと組み合わせて、オンデバイス/クラウド フォールバックを実現します。

用語デコーダー

Windows AI 空間では、急速なブランド変更が行われます。 発生する可能性がある用語の翻訳テーブルを次に示します。

見たことのある用語 今の意味
Copilot ランタイム API Windows AI APIs の古い名前 (2024)。 名前が変更されたのと同じ機能。
Windows Copilot Runtime AI 機能の古いアンブレラ用語 (2024) は、Microsoft Foundry on Windows と呼ばれるようになりました。
Windows AI Foundry AI 機能の古いアンブレラ用語 (2025 年) は、Microsoft Foundry on Windows と呼ばれるようになりました。
Microsoft Foundry on Windows Windows AI APIs + Foundry Local + Windows MLをカバーする現在の傘ブランド。
Microsoft Foundry Microsoftのクラウドベースの AI プラットフォーム。 異なる製品、異なるチーム、似た名前。
Phi Silica Copilot+ PC 上のWindows用に最適化され、組み込まれている特定の Phi モデル。 Windows AI APIs 経由でアクセスされます。
Phi (一般) Microsoftの小さな言語モデルのファミリ。 Phi-4-mini などは、Azure AI および Foundry Local 経由で利用できます。 Phi Silica は、NPU 最適化 Windows インボックス バージョンです。
Windows ML (古い) レガシー WinRT ベースの推論 API、Windows 10 1809以降に標準で搭載。 それでも動作します。新しい投資はありません。
Windows ML (新規) 新しい ONNX ランタイム ベースの NuGet パッケージ。 現在、積極的に開発されています。
DirectML (継続的なエンジニアリングで) 積極的に開発されなくなりました。 GPU/NPU アクセラレーション用の低レベル DirectX 12 ML API。
Windows ML IHV 固有の実行プロバイダー DirectML の代わりに、Windows ハードウェアをネイティブに使用することで、より高いパフォーマンスを実現します。
Copilot+ PC ハードウェアによって定義された PC カテゴリ: 40 以上の TOPS を持つ NPU、16 GB 以上の RAM、特定の SOC。 Windows AI APIsが必要です;Foundry Local または Windows MLには必要ありません。
NPU ニューラル処理装置 — Copilot+ PC の専用 AI アクセラレーション ハードウェア。 Windows AI APIsは、NPU を介して自動的に推論をルーティングします。

同じアプリでオプションを結合する

これらのオプションは相互に排他的ではありません。 回復性のある AI 機能の一般的なパターン:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

このパターンにより、Copilot+ ユーザーは、すべてのハードウェアで機能を維持しながら、最適なエクスペリエンスが得られます。

まだ不明ですか?