Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Este tema le guía por la ruta de acceso mínima para ejecutar un modelo ONNX con Windows ML en la CPU y, a continuación, le dirige hacia la aceleración por hardware cuando esté preparado.
Para obtener más información sobre Windows ML, consulte ¿Qué es Windows ML?
Prerrequisitos
- Versión de Windows compatible con SDK de Aplicaciones para Windows
- Arquitectura: x64 o ARM64
- Requisitos previos específicos del idioma que se muestran a continuación
- .NET 8 o posterior para usar todas las API de Windows ML
- Con .NET 6, puede instalar proveedores de ejecución mediante las
Microsoft.Windows.AI.MachineLearningAPI, pero no puede usar lasMicrosoft.ML.OnnxRuntimeAPI.
- Con .NET 6, puede instalar proveedores de ejecución mediante las
- Tener como destino un TFM específico de Windows 10 como
net8.0-windows10.0.17763.0o superior
Paso 1: Buscar un modelo
Antes de escribir cualquier código, necesita un modelo ONNX. Consulte Buscar o entrenar modelos para obtener instrucciones sobre cómo obtener modelos ONNX.
Paso 2: Instalación de Windows ML
Consulte Instalación e implementación de Windows ML para obtener instrucciones completas en todos los lenguajes y modos de implementación admitidos (dependientes del marco y autocontenida).
Paso 3: Agregar espacios de nombres/encabezados
Después de instalar Windows ML en el proyecto, consulte Uso de API de ONNX para obtener instrucciones sobre los espacios de nombres o encabezados que se van a usar.
Paso 4: Ejecución de un modelo ONNX
Con Windows ML instalado, puede ejecutar modelos ONNX en la CPU sin ninguna configuración adicional. Consulte Ejecución de modelos ONNX para obtener instrucciones.
En este momento, tu app tiene una ruta de inferencia funcional en la CPU.
Paso 5: Aceleración opcional en NPU o GPU
¿Desea una inferencia más rápida en NPU, GPU o incluso CPU? Consulte "Aceleración de modelos de IA" para agregar proveedores de ejecución optimizados por hardware para el hardware de destino.
Consulte también
- Aceleración de modelos de IA : adición de proveedores de ejecución de NPU, GPU o CPU
- Ejecución de modelos ONNX : información sobre la inferencia de modelos ONNX
- Instalación e implementación de Windows ML : opciones para implementar una aplicación mediante Windows ML
- Tutorial - Tutorial completo y detallado sobre el uso de Windows ML con el modelo ResNet-50
- Ejemplos de código: nuestros ejemplos de código con Windows ML