Introducción a Windows ML

Este tema le guía por la ruta de acceso mínima para ejecutar un modelo ONNX con Windows ML en la CPU y, a continuación, le dirige hacia la aceleración por hardware cuando esté preparado.

Para obtener más información sobre Windows ML, consulte ¿Qué es Windows ML?

Prerrequisitos

  • .NET 8 o posterior para usar todas las API de Windows ML
    • Con .NET 6, puede instalar proveedores de ejecución mediante las Microsoft.Windows.AI.MachineLearning API, pero no puede usar las Microsoft.ML.OnnxRuntime API.
  • Tener como destino un TFM específico de Windows 10 como net8.0-windows10.0.17763.0 o superior

Paso 1: Buscar un modelo

Antes de escribir cualquier código, necesita un modelo ONNX. Consulte Buscar o entrenar modelos para obtener instrucciones sobre cómo obtener modelos ONNX.

Paso 2: Instalación de Windows ML

Consulte Instalación e implementación de Windows ML para obtener instrucciones completas en todos los lenguajes y modos de implementación admitidos (dependientes del marco y autocontenida).

Paso 3: Agregar espacios de nombres/encabezados

Después de instalar Windows ML en el proyecto, consulte Uso de API de ONNX para obtener instrucciones sobre los espacios de nombres o encabezados que se van a usar.

Paso 4: Ejecución de un modelo ONNX

Con Windows ML instalado, puede ejecutar modelos ONNX en la CPU sin ninguna configuración adicional. Consulte Ejecución de modelos ONNX para obtener instrucciones.

En este momento, tu app tiene una ruta de inferencia funcional en la CPU.

Paso 5: Aceleración opcional en NPU o GPU

¿Desea una inferencia más rápida en NPU, GPU o incluso CPU? Consulte "Aceleración de modelos de IA" para agregar proveedores de ejecución optimizados por hardware para el hardware de destino.

Consulte también