Elección de la solución de inteligencia artificial de Windows

El panorama de la inteligencia artificial de Windows ha crecido rápidamente y la terminología puede ser difícil de navegar. Esta página simplifica: encuentre su escenario y elija su punto de partida.

Options

  • Modelos y APIs listos para usar: Los modelos distribuidos y administrados por Microsoft; código mínimo, sin necesidad de experiencia en aprendizaje automático.
    • Windows AI APIs — LLM (Phi Silica), modelos de creación de imágenes, OCR, búsqueda semántica y más. Copilot+ PC (ordenador) necesario.
    • Foundry Local — Más de 20 modelos de lenguaje y de voz de código abierto mediante una API compatible con OpenAI. Cualquier hardware de Windows.
  • Ejecute cualquier modelo localmente: traiga su propio modelo ONNX con control total sobre la canalización de inferencia.
    • Windows ML: inferencia acelerada por hardware en CPU, GPU o NPU. Cualquier hardware de Windows.
  • Otros
    • Microsoft Foundry : modelos de frontera hospedados en la nube (GPT-4o, DALL-E, etc.) a través de la API REST. Combínalo con Foundry Local para la opción de reserva en dispositivo/nube.

Descodificador de terminología

El espacio de Inteligencia Artificial de Windows ha pasado por un rápido cambio de marca. Esta es una tabla de traducción para los términos que podría encontrar:

Término que ha visto Lo que significa ahora
APIs de tiempo de ejecución de Copilot Nombre antiguo (2024) para Windows AI APIs. Misma funcionalidad, renombrada.
Windows Copilot Runtime Antiguo término paraguas (2024) para las características de IA ahora denominadas Microsoft Foundry on Windows.
Windows AI Foundry Antiguo término general (2025) para las características de inteligencia artificial (IA) ahora denominadas Microsoft Foundry on Windows.
Microsoft Foundry on Windows Marca paraguas actual que cubre Windows AI APIs + Foundry Local + Windows ML.
Microsoft Foundry Microsoft plataforma de inteligencia artificial basada en la nube. Producto diferente, equipo diferente, nombre similar.
Phi Silica El específico modelo Phi optimizado e integrado para Windows en equipos Copilot+. Acceso a través de Windows AI APIs.
Phi (general) La familia de modelos de lenguaje pequeños de Microsoft. Phi-4-mini etc. están disponibles en Azure IA y a través de Foundry Local. Phi Silica es la versión de bandeja de entrada de Windows optimizada para NPU.
Windows ML (antiguo) Api de inferencia basada en WinRT heredada, bandeja de entrada desde Windows 10 1809. Todavía funciona; ninguna nueva inversión.
Windows ML (nuevo) Nuevo paquete NuGet basado en Runtime de ONNX. Actualmente en desarrollo activo.
DirectML Ya no se está desarrollando activamente (en ingeniería sostenida). API de DirectX 12 ML de bajo nivel para la aceleración de GPU/NPU.
Windows ML proveedores de ejecución específicos de IHV El reemplazo de DirectML, logrando un mayor rendimiento trabajando de forma nativa con Windows hardware.
Copilot+ PC Una categoría de PC definida por hardware: NPU con más de 40 TOPS, 16 GB+ RAM, soC específicos. Necesario para Windows AI APIs; no es necesario para Foundry Local o Windows ML.
NPU Unidad de procesamiento neuronal: hardware dedicado de aceleración de IA en equipos de Copilot+. Windows AI APIs la inferencia automática de ruta a través de la NPU.

Combinar opciones en la misma aplicación

Estas opciones no son mutuamente excluyentes. Un patrón típico para una característica de inteligencia artificial resistente:

// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
    var deploymentResult = await LanguageModel.EnsureReadyAsync();
    if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
    {
        readyState = LanguageModel.GetReadyState();
    }
    else
    {
        // Optional: inspect deploymentResult.ExtendedError for diagnostics.
        // Treat as unavailable so we fall through to Foundry/Azure.
        readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
    }
}

if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
    // Use Phi Silica via Windows AI APIs
    using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
    // Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
    // Use Azure OpenAI
}

Este patrón proporciona a los usuarios Copilot+ la mejor experiencia mientras mantiene la funcionalidad funcionando en todo el hardware.

¿Aún no está seguro?