Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
El panorama de la inteligencia artificial de Windows ha crecido rápidamente y la terminología puede ser difícil de navegar. Esta página simplifica: encuentre su escenario y elija su punto de partida.
Options
-
Modelos y APIs listos para usar: Los modelos distribuidos y administrados por Microsoft; código mínimo, sin necesidad de experiencia en aprendizaje automático.
- Windows AI APIs — LLM (Phi Silica), modelos de creación de imágenes, OCR, búsqueda semántica y más. Copilot+ PC (ordenador) necesario.
- Foundry Local — Más de 20 modelos de lenguaje y de voz de código abierto mediante una API compatible con OpenAI. Cualquier hardware de Windows.
-
Ejecute cualquier modelo localmente: traiga su propio modelo ONNX con control total sobre la canalización de inferencia.
- Windows ML: inferencia acelerada por hardware en CPU, GPU o NPU. Cualquier hardware de Windows.
-
Otros
- Microsoft Foundry : modelos de frontera hospedados en la nube (GPT-4o, DALL-E, etc.) a través de la API REST. Combínalo con Foundry Local para la opción de reserva en dispositivo/nube.
Descodificador de terminología
El espacio de Inteligencia Artificial de Windows ha pasado por un rápido cambio de marca. Esta es una tabla de traducción para los términos que podría encontrar:
| Término que ha visto | Lo que significa ahora |
|---|---|
| APIs de tiempo de ejecución de Copilot | Nombre antiguo (2024) para Windows AI APIs. Misma funcionalidad, renombrada. |
| Windows Copilot Runtime | Antiguo término paraguas (2024) para las características de IA ahora denominadas Microsoft Foundry on Windows. |
| Windows AI Foundry | Antiguo término general (2025) para las características de inteligencia artificial (IA) ahora denominadas Microsoft Foundry on Windows. |
| Microsoft Foundry on Windows | Marca paraguas actual que cubre Windows AI APIs + Foundry Local + Windows ML. |
| Microsoft Foundry | Microsoft plataforma de inteligencia artificial basada en la nube. Producto diferente, equipo diferente, nombre similar. |
| Phi Silica | El específico modelo Phi optimizado e integrado para Windows en equipos Copilot+. Acceso a través de Windows AI APIs. |
| Phi (general) | La familia de modelos de lenguaje pequeños de Microsoft. Phi-4-mini etc. están disponibles en Azure IA y a través de Foundry Local. Phi Silica es la versión de bandeja de entrada de Windows optimizada para NPU. |
| Windows ML (antiguo) | Api de inferencia basada en WinRT heredada, bandeja de entrada desde Windows 10 1809. Todavía funciona; ninguna nueva inversión. |
| Windows ML (nuevo) | Nuevo paquete NuGet basado en Runtime de ONNX. Actualmente en desarrollo activo. |
| DirectML | Ya no se está desarrollando activamente (en ingeniería sostenida). API de DirectX 12 ML de bajo nivel para la aceleración de GPU/NPU. |
| Windows ML proveedores de ejecución específicos de IHV | El reemplazo de DirectML, logrando un mayor rendimiento trabajando de forma nativa con Windows hardware. |
| Copilot+ PC | Una categoría de PC definida por hardware: NPU con más de 40 TOPS, 16 GB+ RAM, soC específicos. Necesario para Windows AI APIs; no es necesario para Foundry Local o Windows ML. |
| NPU | Unidad de procesamiento neuronal: hardware dedicado de aceleración de IA en equipos de Copilot+. Windows AI APIs la inferencia automática de ruta a través de la NPU. |
Combinar opciones en la misma aplicación
Estas opciones no son mutuamente excluyentes. Un patrón típico para una característica de inteligencia artificial resistente:
// 1. Try Windows AI APIs (fastest — Copilot+ only)
var readyState = LanguageModel.GetReadyState();
if (readyState == AIFeatureReadyState.EnsureNeeded)
{
var deploymentResult = await LanguageModel.EnsureReadyAsync();
if (deploymentResult.Status == PackageDeploymentStatus.CompletedSuccess)
{
readyState = LanguageModel.GetReadyState();
}
else
{
// Optional: inspect deploymentResult.ExtendedError for diagnostics.
// Treat as unavailable so we fall through to Foundry/Azure.
readyState = AIFeatureReadyState.NotSupportedOnCurrentSystem;
}
}
if (readyState != AIFeatureReadyState.NotSupportedOnCurrentSystem)
{
// Use Phi Silica via Windows AI APIs
using LanguageModel languageModel = await LanguageModel.CreateAsync();
}
// 2. Fall back to Foundry Local (any hardware)
else if (await foundryClient.IsModelAvailableAsync("phi-4-mini"))
{
// Use Foundry Local OpenAI-compatible API
}
// 3. Fall back to Azure AI (always available)
else
{
// Use Azure OpenAI
}
Este patrón proporciona a los usuarios Copilot+ la mejor experiencia mientras mantiene la funcionalidad funcionando en todo el hardware.
¿Aún no está seguro?
- Visión general de Microsoft Foundry on Windows: visión general completa de la plataforma
- Galería de desarrollo de IA: examine ejemplos de trabajo para cada API.
- Stack Overflow: etiqueta windows-ai