Introdução ao Windows ML

Este tópico orienta você pelo caminho mínimo para executar um modelo ONNX com o Windows ML na CPU e, em seguida, aponta para a aceleração de hardware quando estiver pronto.

Para saber mais sobre o Windows ML, consulte o que é o Windows ML.

Pré-requisitos

  • Versão do Windows compatível com o SDK de Aplicativo do Windows
  • Arquitetura: x64 ou ARM64
  • Pré-requisitos específicos do idioma vistos abaixo
  • .NET 8 ou superior para usar todas as APIs do Windows ML
    • Com o .NET 6, você pode instalar provedores de execução usando as Microsoft.Windows.AI.MachineLearning APIs, mas não pode usar as Microsoft.ML.OnnxRuntime APIs.
  • Direcionando um TFM específico do Windows 10 como net8.0-windows10.0.17763.0 ou superior

Etapa 1: Localizar um modelo

Antes de escrever qualquer código, você precisa de um modelo ONNX. Consulte Localizar ou treinar modelos para obter diretrizes sobre como obter modelos ONNX.

Etapa 2: Instalar o Windows ML

Consulte Instalar e implantar o Windows ML para obter instruções completas em todos os idiomas e modos de implantação com suporte (dependentes da estrutura e autocontidos).

Etapa 3: Adicionar namespaces/cabeçalhos

Depois de instalar o Windows ML em seu projeto, consulte Usar APIs ONNX para obter diretrizes sobre quais namespaces/cabeçalhos usar.

Etapa 4: Executar um modelo ONNX

Com o Windows ML instalado, você pode executar modelos ONNX na CPU sem nenhuma configuração adicional. Consulte Executar modelos ONNX para obter diretrizes.

Neste ponto, seu aplicativo tem um caminho de inferência funcional na CPU.

Etapa 5: Opcionalmente, acelere em NPU ou GPU

Deseja uma inferência mais rápida em NPU, GPU ou até mesmo CPU? Consulte Acelerar modelos de IA para adicionar provedores de execução ajustados por hardware para o hardware de destino.

Consulte também