Windows AI のランドスケープは急速に拡大しており、用語の移動が困難な場合があります。 このページでは、シナリオを見つけ、出発点を選択します。
オプション
-
Ready-to-use AI モデルと API — Microsoftによって分散および管理されるモデル。最小限のコード、ML の専門知識は必要ありません。
- Windows AI APIs — LLM (Phi Silica)、イメージング モデル、OCR、セマンティック検索など。 Copilot+ PC が必要です。
- Foundry Local — OpenAI 互換 API を介した 20 以上のオープンソース LLM と音声モデル。 任意のWindowsハードウェア。
-
任意のモデルをローカルで実行 する - 推論パイプラインを完全に制御して独自の ONNX モデルを使用します。
- Windows ML — CPU、GPU、または NPU でのハードウェアアクセラレータによる推論。 任意のWindowsハードウェア。
-
その他
- Microsoft Foundry — REST API 経由でクラウドでホストされるフロンティア モデル (GPT-4o、DALL-E など)。 Foundry Localと組み合わせて、オンデバイス/クラウド フォールバックを実現します。
用語デコーダー
Windows AI 空間では、急速なブランド変更が行われます。 発生する可能性がある用語の翻訳テーブルを次に示します。
| 見たことのある用語 | 今の意味 |
|---|---|
| Copilot ランタイム API | Windows AI APIs の古い名前 (2024)。 名前が変更されたのと同じ機能。 |
| Windows Copilot Runtime | AI 機能の古いアンブレラ用語 (2024) は、Microsoft Foundry on Windows と呼ばれるようになりました。 |
| Windows AI Foundry | AI 機能の古いアンブレラ用語 (2025 年) は、Microsoft Foundry on Windows と呼ばれるようになりました。 |
| Microsoft Foundry on Windows | Windows AI APIs + Foundry Local + Windows MLをカバーする現在の傘ブランド。 |
| Microsoft Foundry | Microsoftのクラウドベースの AI プラットフォーム。 異なる製品、異なるチーム、似た名前。 |
| Phi Silica | Copilot+ PC 上のWindows用に最適化され、組み込まれている特定の Phi モデル。 Windows AI APIs 経由でアクセスされます。 |
| Phi (一般) | Microsoftの小さな言語モデルのファミリ。 Phi-4-mini などは、Azure AI および Foundry Local 経由で利用できます。 Phi Silica は、NPU 最適化 Windows インボックス バージョンです。 |
| Windows ML (古い) | レガシー WinRT ベースの推論 API、Windows 10 1809以降に標準で搭載。 それでも動作します。新しい投資はありません。 |
| Windows ML (新規) | 新しい ONNX ランタイム ベースの NuGet パッケージ。 現在、積極的に開発されています。 |
| DirectML | (継続的なエンジニアリングで) 積極的に開発されなくなりました。 GPU/NPU アクセラレーション用の低レベル DirectX 12 ML API。 |
| Windows ML IHV 固有の実行プロバイダー | DirectML の代わりに、Windows ハードウェアをネイティブに使用することで、より高いパフォーマンスを実現します。 |
| Copilot+ PC | ハードウェアによって定義された PC カテゴリ: 40 以上の TOPS を持つ NPU、16 GB 以上の RAM、特定の SOC。 Windows AI APIsが必要です;Foundry Local または Windows MLには必要ありません。 |
| NPU | ニューラル処理装置 — Copilot+ PC の専用 AI アクセラレーション ハードウェア。 Windows AI APIsは、NPU を介して自動的に推論をルーティングします。 |
同じアプリでオプションを結合する
これらのオプションは相互に排他的ではありません。 回復性のある AI 機能の一般的なパターン:
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
このパターンにより、Copilot+ ユーザーは、すべてのハードウェアで機能を維持しながら、最適なエクスペリエンスが得られます。
まだ不明ですか?
- Microsoft Foundry on Windows の概要 — プラットフォームの完全な概要
- AI 開発ギャラリー - すべての API の作業サンプルを参照する
- Stack Overflow — windows-ai タグ