Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Il panorama dell'intelligenza artificiale di Windows è cresciuto rapidamente e la terminologia può essere difficile da esplorare. Questa pagina semplifica le cose: trova il tuo scenario, scegli il punto di partenza.
Suggerimento
La domanda n. 1 a cui rispondere per prima cosa: l'app deve essere eseguita su tutti gli hardware Windows o solo Copilot+ su PC?
- Tutto l'hardware di Windows → Foundry Local o Windows ML
- Copilot+ Solo i PC → Windows AI APIs (configurazione più veloce, zero impostazione)
- Cloud o ibrido → 'intelligenza artificiale di Azure
Tabella delle decisioni
| Vorrei... | Opzione consigliata | Hardware necessario |
|---|---|---|
| Aggiungere una funzionalità di chat o riepilogo all'app con codice minimo | Windows AI APIs — Phi Silica | Copilot+ PC |
| Generare, descrivere o modificare immagini nel dispositivo | Windows AI APIs — Immagini | Copilot+ PC |
| Esegui un LLM in locale su qualsiasi PC Windows (nessun cloud, nessuna NPU necessaria) | Foundry Local | Windows 10+ (CPU/GPU) |
| Riconoscimento vocale sul dispositivo in qualsiasi hardware | Foundry Local — Sussurro | Windows 10+ |
| Eseguire un modello personalizzato o un modello Hugging Face con accelerazione hardware | Windows ML | Windows 10+ (CPU/GPU/NPU) |
| Controllo GPU/NPU di basso livello per un gioco o un'app a elevato utilizzo di grafica | DirectML | Windows 10+ (GPU) |
| Usare modelli ospitati nel cloud di grandi dimensioni (GPT-4o, DALL-E e così via) | Intelligenza artificiale di Azure | Any (Internet obbligatorio) |
| Integrare l'intelligenza artificiale locale e nel cloud, eseguire un fallback graduale | Foundry Local + Intelligenza artificiale di Azure | Windows 10+ |
| Ricerca semantica in-app su documenti o immagini | Windows AI APIs — Ricerca semantica | Copilot+ PC |
| Phi Silica Ottimizzare i dati personali | Windows AI APIs — LoRA | Copilot+ PC |
Opzioni in dettaglio
Windows AI APIs — Copilot+ PC
Ideale per: nuove funzionalità di Windows con il minor codice, nei Copilot+ PC.
Windows AI APIs fanno parte di Windows App SDK e forniscono alle app in pacchetto l'accesso ai modelli di intelligenza artificiale su dispositivo installati e gestiti da Windows, non si spediscono il modello, non ne gestiscono il ciclo di vita e vengono condivisi tra le app. L'inferenza viene eseguita sulla NPU per risultati quasi istantanei, privati e a basso consumo energetico.
Le funzionalità di intelligenza artificiale disponibili includono: generazione di testo (Phi Silica), descrizione dell'immagine, generazione di immagini, segmentazione di immagini, super risoluzione dell'immagine, cancellazione degli oggetti, OCR, ricerca semantica e super risoluzione dei video. Vedere l'elenco completo delle API.
Requisiti: Copilot+ PC (NPU con 40+ TOPS — serie Snapdragon X, serie Intel Core Ultra 200V, serie AMD Ryzen AI 300). L'app deve essere inserita in un pacchetto (IDENTITÀ MSIX o sparse).
Foundry Local
Ideale per: funzionalità LLM o riconoscimento vocale in qualsiasi hardware Windows (nessuna Copilot+ richiesta).
Foundry Local esegue 20 modelli open source in locale tramite un'API REST compatibile con OpenAI. È possibile riutilizzare il codice di intelligenza artificiale esistente con zero modifiche, solo puntare OpenAIClient all'endpoint compatibile con OpenAI in locale Foundry Local anziché al cloud (vedere la documentazione per i dettagli dell'endpoint Foundry Local ). I modelli vengono gestiti da (non dall'app Foundry Local ) ed eseguiti su CPU, GPU o NPU a seconda di ciò che il dispositivo ha.
winget install Microsoft.AIFoundry.Local
foundry model run phi-4-mini
Requisiti: Windows 10 e versioni successive. Scalabilità delle prestazioni con GPU/NPU disponibili.
Windows ML
Ideale per: l'esecuzione di modelli personalizzati, finemente ottimizzati o modelli Hugging Face con il pieno controllo sulla pipeline di inferenza.
Windows ML (la nuova versione basata sul runtime ONNX) consente di usare il proprio modello in formato ONNX ed eseguirlo in locale con accelerazione hardware su CPU, GPU o NPU. È la scelta giusta quando i modelli pronti per l'uso in Windows AI APIs e Foundry Local non coprono lo scenario o quando è necessario integrare un modello proprietario.
Annotazioni
Esistono due API denominate "Windows ML". WinRT Windows MLlegacy è l'API posta in arrivo precedente disponibile a partire da Windows 10 1809. Il nuovo Windows ML (NuGet) è la versione corrente basata sul runtime ONNX con prestazioni e supporto hardware migliori. I nuovi progetti devono usare il nuovo Windows ML.
Requisiti: Windows 10 e versioni successive. La compatibilità e le prestazioni dei modelli variano in base all'hardware.
AI di Azure (cloud e soluzioni ibride)
Ideale per: modelli di frontiera di grandi dimensioni (GPT-4o, DALL-E, Claude, Gemini), scenari che richiedono le funzionalità del modello più recenti o app in cui non è possibile presumere hardware locale.
L'intelligenza artificiale di Azure consente di accedere alla gamma completa di modelli di intelligenza artificiale ospitati tramite API REST standard. È la scelta giusta quando lo scenario richiede funzionalità oltre a quelle offerte dai modelli su dispositivo o quando si compila un servizio anziché un'app client.
È possibile combinare l'intelligenza artificiale di Azure con Foundry Local nella stessa app, eseguendo inferenza veloce e privata in locale quando il dispositivo lo supporta e eseguendo il fallback ad Azure quando non lo supporta.
Decodificatore della terminologia
Lo spazio windows per intelligenza artificiale ha subito una rapida ridenominazione. Ecco una tabella di traduzione per i termini che è possibile riscontrare:
| Termine che hai visto | Cosa significa ora |
|---|---|
| API di runtime di Copilot | Nome precedente (2024) per Windows AI APIs. Stessa funzionalità, rinominata. |
| Windows Copilot Runtime | Termine generico precedente per le funzionalità di intelligenza artificiale ora denominato Microsoft Foundry on Windows. |
| Microsoft Foundry on Windows | Marchio ombrello corrente che copre Windows AI APIs + Foundry Local + Windows ML. |
| Windows AI Foundry | Abbreviato informale per Microsoft Foundry on Windows. Non uguale ad Azure AI Foundry. |
| Azure IA Foundry | Piattaforma di intelligenza artificiale basata sul cloud di Microsoft. Prodotto diverso, team diverso, nome simile. |
| Phi Silica | Il modello Phi specifico ottimizzato per Windows e integrato nei Copilot+ PC. Accesso tramite Windows AI APIs. |
| Phi (generale) | Famiglia di modelli linguistici di piccole dimensioni di Microsoft. Phi-4-mini e così via sono disponibili nell'intelligenza artificiale di Azure e tramite Foundry Local. Phi Silica è la versione posta in arrivo di Windows ottimizzata per NPU. |
| Windows ML (vecchio) | API di inferenza basata su WinRT legacy, posta in arrivo da Windows 10 1809. Ancora funziona; nessun nuovo investimento. |
| Windows ML (nuovo) | Nuovo pacchetto NuGet basato sul runtime ONNX. Attuale e attivamente sviluppato. |
| DirectML | API DirectX 12 ML di basso livello per l'accelerazione GPU/NPU. Usato internamente da Windows ML e ONNX Runtime; l'uso diretto è per scenari avanzati. |
| Copilot+ PC | Categoria PC definita dall'hardware: NPU con 40+ TOPS, 16 GB+ RAM, soC specifici. Obbligatorio per Windows AI APIs; non obbligatorio per Foundry Local o Windows ML. |
| NPU | Unità di elaborazione neurale: hardware dedicato per l'accelerazione dell'intelligenza artificiale nei Copilot+ PC. Windows AI APIs instradare automaticamente l'inferenza tramite la NPU. |
Combinare le opzioni nella stessa app
Queste opzioni non si escludono a vicenda. Modello tipico per una funzionalità di intelligenza artificiale resiliente:
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
Questo modello offre agli Copilot+ utenti la migliore esperienza mantenendo la funzionalità funzionante su tutti gli hardware.
Ancora incerto?
- Microsoft Foundry on Windows panoramica : albero delle decisioni e tabella di confronto completa
- AI Dev Gallery : esplorare gli esempi funzionanti per ogni API
- Stack Overflow: tag windows-ai