Escolha a sua solução de IA para Windows

O panorama da IA do Windows cresceu rapidamente e a terminologia pode ser difícil de navegar. Esta página simplifica o processo: encontre o seu cenário, escolha o ponto de partida.

Opções

  • Modelos e APIs de IA prontos a usar — Modelos distribuídos e geridos por Microsoft código mínimo, sem necessidade de conhecimentos em ML.
    • Windows AI APIs — LLM (Phi Silica), modelos de imagem, OCR, pesquisa semântica e mais. Copilot+ PC necessário.
    • Foundry Local — Mais de 20 modelos de LLMs e de voz open-source através de uma API compatível com OpenAI. Qualquer hardware do Windows.
  • Execute qualquer modelo localmente — Traga o seu próprio modelo ONNX com controlo total sobre o pipeline de inferência.
    • Windows ML — Inferência acelerada por hardware em CPU, GPU ou NPU. Qualquer hardware do Windows.
  • Outros
    • Microsoft Foundry — Modelos de fronteira alojados na cloud (GPT-4o, DALL-E, etc.) via API REST. Combine com Foundry Local para uma alternativa no dispositivo/cloud.

Descodificador de terminologia

O espaço da IA do Windows passou por uma rápida reformulação. Aqui está uma tabela de tradução para termos que possa encontrar:

Termo que já viste O que isto significa agora
APIs de Tempo de Execução do Copilot Nome antigo (2024) para Windows AI APIs. Mesma funcionalidade, renomeada.
Windows Copilot Runtime Termo guarda-chuva antigo (2024) para as funcionalidades de IA agora chamadas Microsoft Foundry on Windows.
Windows AI Foundry Termo guarda-chuva antigo (2025) para as funcionalidades de IA agora chamadas Microsoft Foundry on Windows.
Microsoft Foundry on Windows Cobertura atual da marca de guarda-chuvas Windows AI APIs + Foundry Local + Windows ML.
Microsoft Foundry A plataforma de IA baseada na cloud da Microsoft. Produto diferente, equipa diferente, nome semelhante.
Phi Silica O modelo Phi específico otimizado e incorporado no Windows em PCs Copilot+. Acedido via Windows AI APIs.
Phi (geral) A família de pequenos modelos de linguagem da Microsoft. Phi-4-mini, etc., estão disponíveis no Azure AI e via Foundry Local. Phi Silica é a versão do Windows otimizada para NPU nativa.
Windows ML (antigo) API de inferência antiga baseada em WinRT, caixa de entrada desde o Windows 10 1809. Ainda funciona; Sem novos investimentos.
Windows ML (novo) Novo pacote NuGet com base em ONNX Runtime. Atual e em desenvolvimento contínuo.
DirectML Já não está a ser desenvolvido ativamente (em engenharia sustentada). API DirectX 12 ML de baixo nível para aceleração de GPU/NPU.
Windows ML Provedores de Execução específicos para IHV O substituto do DirectML, alcançando maior desempenho ao trabalhar nativamente com hardware Windows.
Copilot+ PC Uma categoria de PC definida por hardware: NPU com 40+ TOPS, 16GB+ RAM, SoCs específicos. Obrigatório para Windows AI APIs; Não é obrigatório para Foundry Local ou Windows ML.
NPU Unidade de Processamento Neural — hardware dedicado de aceleração de IA em PCs Copilot+. Windows AI APIs processa a inferência através da NPU automaticamente.

Combinar opções na mesma aplicação

Estas opções não são mutuamente exclusivas. Um padrão típico para uma funcionalidade de IA resiliente:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Este padrão proporciona aos utilizadores Copilot+ a melhor experiência, mantendo a funcionalidade a funcionar em todo o hardware.

Ainda não tens a certeza?