Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
O panorama da IA do Windows cresceu rapidamente e a terminologia pode ser difícil de navegar. Esta página simplifica o processo: encontre o seu cenário, escolha o ponto de partida.
Opções
-
Modelos e APIs de IA prontos a usar — Modelos distribuídos e geridos por Microsoft código mínimo, sem necessidade de conhecimentos em ML.
- Windows AI APIs — LLM (Phi Silica), modelos de imagem, OCR, pesquisa semântica e mais. Copilot+ PC necessário.
- Foundry Local — Mais de 20 modelos de LLMs e de voz open-source através de uma API compatível com OpenAI. Qualquer hardware do Windows.
-
Execute qualquer modelo localmente — Traga o seu próprio modelo ONNX com controlo total sobre o pipeline de inferência.
- Windows ML — Inferência acelerada por hardware em CPU, GPU ou NPU. Qualquer hardware do Windows.
-
Outros
- Microsoft Foundry — Modelos de fronteira alojados na cloud (GPT-4o, DALL-E, etc.) via API REST. Combine com Foundry Local para uma alternativa no dispositivo/cloud.
Descodificador de terminologia
O espaço da IA do Windows passou por uma rápida reformulação. Aqui está uma tabela de tradução para termos que possa encontrar:
| Termo que já viste | O que isto significa agora |
|---|---|
| APIs de Tempo de Execução do Copilot | Nome antigo (2024) para Windows AI APIs. Mesma funcionalidade, renomeada. |
| Windows Copilot Runtime | Termo guarda-chuva antigo (2024) para as funcionalidades de IA agora chamadas Microsoft Foundry on Windows. |
| Windows AI Foundry | Termo guarda-chuva antigo (2025) para as funcionalidades de IA agora chamadas Microsoft Foundry on Windows. |
| Microsoft Foundry on Windows | Cobertura atual da marca de guarda-chuvas Windows AI APIs + Foundry Local + Windows ML. |
| Microsoft Foundry | A plataforma de IA baseada na cloud da Microsoft. Produto diferente, equipa diferente, nome semelhante. |
| Phi Silica | O modelo Phi específico otimizado e incorporado no Windows em PCs Copilot+. Acedido via Windows AI APIs. |
| Phi (geral) | A família de pequenos modelos de linguagem da Microsoft. Phi-4-mini, etc., estão disponíveis no Azure AI e via Foundry Local. Phi Silica é a versão do Windows otimizada para NPU nativa. |
| Windows ML (antigo) | API de inferência antiga baseada em WinRT, caixa de entrada desde o Windows 10 1809. Ainda funciona; Sem novos investimentos. |
| Windows ML (novo) | Novo pacote NuGet com base em ONNX Runtime. Atual e em desenvolvimento contínuo. |
| DirectML | Já não está a ser desenvolvido ativamente (em engenharia sustentada). API DirectX 12 ML de baixo nível para aceleração de GPU/NPU. |
| Windows ML Provedores de Execução específicos para IHV | O substituto do DirectML, alcançando maior desempenho ao trabalhar nativamente com hardware Windows. |
| Copilot+ PC | Uma categoria de PC definida por hardware: NPU com 40+ TOPS, 16GB+ RAM, SoCs específicos. Obrigatório para Windows AI APIs; Não é obrigatório para Foundry Local ou Windows ML. |
| NPU | Unidade de Processamento Neural — hardware dedicado de aceleração de IA em PCs Copilot+. Windows AI APIs processa a inferência através da NPU automaticamente. |
Combinar opções na mesma aplicação
Estas opções não são mutuamente exclusivas. Um padrão típico para uma funcionalidade de IA resiliente:
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
Este padrão proporciona aos utilizadores Copilot+ a melhor experiência, mantendo a funcionalidade a funcionar em todo o hardware.
Ainda não tens a certeza?
- Microsoft Foundry on Windows visão geral — visão geral completa da plataforma
- AI Dev Gallery — navegue por exemplos funcionais para todas as APIs
- Stack Overflow — etiqueta windows-ai