Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
O cenário de IA Windows cresceu rapidamente e a terminologia pode ser difícil de navegar. Esta página simplifica as informações: localize seu cenário, escolha seu ponto de partida.
Opções
-
Modelos de IA prontos para uso e APIs — modelos distribuídos e gerenciados pela Microsoft; código mínimo, sem necessidade de experiência em aprendizado de máquina (ML).
- Windows AI APIs — LLM (Phi Silica), modelos de imagem, OCR, pesquisa semântica e muito mais. Copilot+ PC necessário.
- Foundry Local — mais de 20 LLMs de código aberto e modelos de fala por meio de uma API compatível com OpenAI. Todo o hardware para Windows.
-
Execute qualquer modelo localmente – traga seu próprio modelo ONNX com controle total sobre o pipeline de inferência.
- Windows ML — inferência acelerada por hardware em CPU, GPU ou NPU. Qualquer hardware de Windows.
-
Outras
- Microsoft Foundry — modelos de fronteira hospedados na nuvem (GPT-4o, DALL-E etc.) via API REST. Combine Foundry Local com o fallback para dispositivo ou nuvem.
Decodificador de terminologia
O espaço de IA do Windows passou por uma reestruturação de marca rápida. Aqui está uma tabela de tradução para termos que você pode encontrar:
| Termo que você viu | O que significa agora |
|---|---|
| Copilot Runtime APIs | Nome antigo (2024) para Windows AI APIs. Mesma funcionalidade, renomeada. |
| Windows Copilot Runtime | Termo guarda-chuva antigo (2024) para os recursos de IA agora chamado Microsoft Foundry on Windows. |
| Windows AI Foundry | Termo guarda-chuva antigo (2025) para os recursos de IA agora chamado Microsoft Foundry on Windows. |
| Microsoft Foundry on Windows | Marca guarda-chuva atual cobrindo Windows AI APIs + Foundry Local + Windows ML. |
| Microsoft Foundry | plataforma de IA baseada em nuvem do Microsoft. Produto diferente, equipe diferente, nome semelhante. |
| Phi Silica | O modelo específico Phi otimizado para e integrado ao Windows em computadores Copilot+. Acessado por meio de Windows AI APIs. |
| Phi (geral) | A família de modelos pequenos de linguagem da Microsoft. Phi-4-mini etc. estão disponíveis em Azure IA e via Foundry Local. Phi Silica é a versão da caixa de entrada de Windows otimizada para NPU. |
| Windows ML (antigo) | API de inferência baseada em WinRT herdada, caixa de entrada desde Windows 10 1809. Ainda funciona; nenhum novo investimento. |
| Windows ML (novo) | Novo pacote NuGet baseado em ambiente de execução ONNX. Atualmente ativo e em desenvolvimento. |
| DirectML | Não está mais sendo desenvolvido ativamente (em engenharia de sustentação). API de baixo nível do DirectX 12 ML para aceleração de GPU/NPU. |
| Windows ML Provedores de execução específicos de IHV | O substituto do DirectML, alcançando um desempenho superior ao trabalhar nativamente com hardware do Windows. |
| Copilot+ PC | Uma categoria de computador definida por hardware: NPU com mais de 40 TOPS, 16 GB+ de RAM, SoCs específicos. Necessário para Windows AI APIs; não necessário para Foundry Local ou Windows ML. |
| NPU | Unidade de Processamento Neural – hardware de aceleração de IA dedicado em computadores Copilot+. Windows AI APIs inferência de rota por meio da NPU automaticamente. |
Combinar opções no mesmo aplicativo
Essas opções não são mutuamente exclusivas. Um padrão típico para um recurso de IA resiliente:
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
Esse padrão oferece aos usuários Copilot+ a melhor experiência, mantendo o recurso funcionando em todo o hardware.
Ainda não tem certeza?
- visão geral Microsoft Foundry on Windows — visão geral completa da plataforma
- Galeria de Desenvolvimento de IA – procurar exemplos de trabalho para cada API
- Stack Overflow — tag windows-ai