Escolha sua solução de IA Windows

O cenário de IA Windows cresceu rapidamente e a terminologia pode ser difícil de navegar. Esta página simplifica as informações: localize seu cenário, escolha seu ponto de partida.

Opções

  • Modelos de IA prontos para uso e APIs — modelos distribuídos e gerenciados pela Microsoft; código mínimo, sem necessidade de experiência em aprendizado de máquina (ML).
    • Windows AI APIs — LLM (Phi Silica), modelos de imagem, OCR, pesquisa semântica e muito mais. Copilot+ PC necessário.
    • Foundry Local — mais de 20 LLMs de código aberto e modelos de fala por meio de uma API compatível com OpenAI. Todo o hardware para Windows.
  • Execute qualquer modelo localmente – traga seu próprio modelo ONNX com controle total sobre o pipeline de inferência.
    • Windows ML — inferência acelerada por hardware em CPU, GPU ou NPU. Qualquer hardware de Windows.
  • Outras
    • Microsoft Foundry — modelos de fronteira hospedados na nuvem (GPT-4o, DALL-E etc.) via API REST. Combine Foundry Local com o fallback para dispositivo ou nuvem.

Decodificador de terminologia

O espaço de IA do Windows passou por uma reestruturação de marca rápida. Aqui está uma tabela de tradução para termos que você pode encontrar:

Termo que você viu O que significa agora
Copilot Runtime APIs Nome antigo (2024) para Windows AI APIs. Mesma funcionalidade, renomeada.
Windows Copilot Runtime Termo guarda-chuva antigo (2024) para os recursos de IA agora chamado Microsoft Foundry on Windows.
Windows AI Foundry Termo guarda-chuva antigo (2025) para os recursos de IA agora chamado Microsoft Foundry on Windows.
Microsoft Foundry on Windows Marca guarda-chuva atual cobrindo Windows AI APIs + Foundry Local + Windows ML.
Microsoft Foundry plataforma de IA baseada em nuvem do Microsoft. Produto diferente, equipe diferente, nome semelhante.
Phi Silica O modelo específico Phi otimizado para e integrado ao Windows em computadores Copilot+. Acessado por meio de Windows AI APIs.
Phi (geral) A família de modelos pequenos de linguagem da Microsoft. Phi-4-mini etc. estão disponíveis em Azure IA e via Foundry Local. Phi Silica é a versão da caixa de entrada de Windows otimizada para NPU.
Windows ML (antigo) API de inferência baseada em WinRT herdada, caixa de entrada desde Windows 10 1809. Ainda funciona; nenhum novo investimento.
Windows ML (novo) Novo pacote NuGet baseado em ambiente de execução ONNX. Atualmente ativo e em desenvolvimento.
DirectML Não está mais sendo desenvolvido ativamente (em engenharia de sustentação). API de baixo nível do DirectX 12 ML para aceleração de GPU/NPU.
Windows ML Provedores de execução específicos de IHV O substituto do DirectML, alcançando um desempenho superior ao trabalhar nativamente com hardware do Windows.
Copilot+ PC Uma categoria de computador definida por hardware: NPU com mais de 40 TOPS, 16 GB+ de RAM, SoCs específicos. Necessário para Windows AI APIs; não necessário para Foundry Local ou Windows ML.
NPU Unidade de Processamento Neural – hardware de aceleração de IA dedicado em computadores Copilot+. Windows AI APIs inferência de rota por meio da NPU automaticamente.

Combinar opções no mesmo aplicativo

Essas opções não são mutuamente exclusivas. Um padrão típico para um recurso de IA resiliente:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Esse padrão oferece aos usuários Copilot+ a melhor experiência, mantendo o recurso funcionando em todo o hardware.

Ainda não tem certeza?