Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este tópico orienta você pelo caminho mínimo para executar um modelo ONNX com o Windows ML na CPU e, em seguida, aponta para a aceleração de hardware quando estiver pronto.
Para saber mais sobre o Windows ML, consulte o que é o Windows ML.
Pré-requisitos
- Versão do Windows compatível com o SDK de Aplicativo do Windows
- Arquitetura: x64 ou ARM64
- Pré-requisitos específicos do idioma vistos abaixo
- .NET 8 ou superior para usar todas as APIs do Windows ML
- Com o .NET 6, você pode instalar provedores de execução usando as
Microsoft.Windows.AI.MachineLearningAPIs, mas não pode usar asMicrosoft.ML.OnnxRuntimeAPIs.
- Com o .NET 6, você pode instalar provedores de execução usando as
- Direcionando um TFM específico do Windows 10 como
net8.0-windows10.0.17763.0ou superior
Etapa 1: Localizar um modelo
Antes de escrever qualquer código, você precisa de um modelo ONNX. Consulte Localizar ou treinar modelos para obter diretrizes sobre como obter modelos ONNX.
Etapa 2: Instalar o Windows ML
Consulte Instalar e implantar o Windows ML para obter instruções completas em todos os idiomas e modos de implantação com suporte (dependentes da estrutura e autocontidos).
Etapa 3: Adicionar namespaces/cabeçalhos
Depois de instalar o Windows ML em seu projeto, consulte Usar APIs ONNX para obter diretrizes sobre quais namespaces/cabeçalhos usar.
Etapa 4: Executar um modelo ONNX
Com o Windows ML instalado, você pode executar modelos ONNX na CPU sem nenhuma configuração adicional. Consulte Executar modelos ONNX para obter diretrizes.
Neste ponto, seu aplicativo tem um caminho de inferência funcional na CPU.
Etapa 5: Opcionalmente, acelere em NPU ou GPU
Deseja uma inferência mais rápida em NPU, GPU ou até mesmo CPU? Consulte Acelerar modelos de IA para adicionar provedores de execução ajustados por hardware para o hardware de destino.
Consulte também
- Acelerar modelos de IA – Adicionar provedores de execução de NPU, GPU ou CPU
- Executar modelos ONNX – Informações sobre a inferência de modelos ONNX
- Instalar e implantar o Windows ML – Opções para implantar um aplicativo usando o Windows ML
- Tutorial – Tutorial completo de ponta a ponta usando o Windows ML com o modelo ResNet-50
- Exemplos de código – Nossos exemplos de código usando o Windows ML