Implementar modelos da plataforma Foundry da Microsoft para computação gerida, com faturação conforme o uso (clássico)

Aplica-se apenas a:Portal Foundry (clássico). Este artigo não está disponível para o novo portal da Foundry. Saiba mais sobre o novo portal.

Nota

Os links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação do Foundry (clássico) que está a ver agora.

Microsoft Foundry Models inclui um catálogo abrangente de modelos organizados em duas categorias — modelos vendidos diretamente por Azure e modelos de parceiros e comunidade. Os modelos dos parceiros e da comunidade, que pode implementar em computação gerida, são modelos abertos ou protegidos. Neste artigo, vai aprender a usar modelos protegidos de parceiros e da comunidade, oferecidos através do Azure Marketplace, para implementação em ambiente de computação gerida com faturação consoante o uso.

Pré-requisitos

  • Uma subscrição do Azure com um método de pagamento válido. Subscrições gratuitas ou de teste no Azure não funcionam. Se não tiver uma subscrição Azure, crie uma conta Azure paga para começar.

  • Se não tiveres um, cria um projeto hub para a Foundry. Podes implementar para computação gerida usando um projeto hub. Um projeto Foundry não funciona para este propósito.

  • Compras no Azure Marketplace ativadas para a sua subscrição Azure.

  • Os controlos de acesso baseados em papéis do Azure (Azure RBAC) concedem acesso às operações no portal Foundry. Para realizar os passos deste artigo, a sua conta de utilizador deve receber um papel personalizado com as seguintes permissões. As contas de utilizador atribuídas à função Proprietário ou Contribuidor para a subscrição do Azure também podem criar implementações. Para mais informações sobre permissões, consulte Controlo de acesso baseado em funções no portal Foundry.

  • Na subscrição Azure— para subscrever o espaço de trabalho/projeto à oferta Azure Marketplace:

    • Microsoft. MarketplaceEncomendas/acordos/ofertas/planos/leitura
    • Microsoft. MarketplaceEncomendas/acordos/ofertas/planos/assinar/agir
    • Microsoft. MarketplaceOrdering/ofertasTipos/editores/ofertas/planos/acordos/leitura
    • Microsoft. Mercado/ofertasTipos/editores/ofertas/planos/acordos/leitura
    • Microsoft. SaaS/registo/ação
  • Sobre o grupo de recursos — para criar e usar o recurso SaaS:

    • Microsoft. SaaS/recursos/leitura
    • Microsoft. SaaS/resources/write
  • No espaço de trabalho — para implementar endpoints:

    • Microsoft. MachineLearningServices/espaços de trabalho/marketplaceModelSubscriptions/*
    • Microsoft. MachineLearningServices/workspaces/onlineEndpoints/*

Âmbito de subscrição e unidade de medida para a oferta do Azure Marketplace

A Foundry proporciona uma experiência de subscrição e transação fluida para modelos protegidos à medida que cria e consome as suas implementações dedicadas de modelos em grande escala. A implementação de modelos protegidos na computação gerida envolve a faturação conforme o uso para o cliente em dois aspetos:

  • O Azure Machine Learning computa faturação por hora para as máquinas virtuais utilizadas na implementação.
  • Faturação adicional para o modelo conforme estabelecido pelo editor do modelo na oferta do Azure Marketplace.

A faturação pay-as-you-go do cálculo do Azure e a sobretaxa do modelo é rateada por minuto, com base no tempo de atividade das implementações online geridas. A sobretaxa para um modelo é um preço por hora de GPU, definido pelo parceiro (ou editora do modelo) no Azure Marketplace, para todas as GPUs suportadas que pode usar para implementar o modelo na computação gerida da Foundry.

A subscrição de um utilizador às ofertas do Azure Marketplace está limitada ao âmbito de recurso do projeto dentro do Foundry. Se já existir uma subscrição à oferta do Azure Marketplace para um modelo específico dentro do projeto, o utilizador é informado no assistente de implementação de que a subscrição já existe para o projeto.

Nota

Para os microserviços de inferência (NIM) da NVIDIA, múltiplos modelos estão associados a uma única oferta de marketplace, pelo que só precisa de subscrever a oferta NIM uma vez dentro de um projeto para poder implementar todas as NIMs oferecidas pela NVIDIA no catálogo de modelos da Foundry. Se quiseres implementar NIMs num projeto diferente sem subscrição SaaS existente, tens de voltar a subscrever a oferta.

Para encontrar todas as subscrições SaaS que existem numa subscrição do Azure:

  1. Inicie sessão no portal Azure e aceda à sua subscrição Azure.

  2. Selecione Subscrições e depois selecione a sua subscrição Azure para abrir a sua página de visão geral.

  3. Selecione Definições>Recursos para ver a lista de recursos.

  4. Use o filtro de Tipo para selecionar o tipo de recurso SaaS.

A sobretaxa baseada no consumo vai para a subscrição SaaS associada e fatura ao utilizador através do Azure Marketplace. Pode ver a fatura no separador Overview da respetiva subscrição SaaS.

Subscreva e implemente em computação gerida

Dica

Como podes personalizar o painel esquerdo no portal Microsoft Foundry, podes ver itens diferentes dos mostrados nestes passos. Se não vires o que procuras, seleciona ... Mais na parte inferior do painel esquerdo.

  1. Iniciar sessão no Microsoft Foundry. Certifica-te de que a opção do New Foundry está desligada. Estes passos referem-se à Foundry (clássica).

  2. Se ainda não estás no teu projeto, seleciona-o.

  3. Selecione catálogo de modelos no painel esquerdo.

  4. Filtra a lista de modelos selecionando a Coleção e o modelo da tua escolha. Este artigo utiliza o Cohere Command A da lista de modelos suportados para ilustração.

  5. Na página do modelo, selecione Usar este modelo para abrir o assistente de implementação.

  6. Se lhe forem apresentadas opções de compra, selecione Computação Gerida.

  7. Se não tiver uma quota dedicada, selecione a caixa de seleção ao lado da declaração: Quero usar quota partilhada e reconheço que este endpoint será eliminado em 168 horas.

  8. Escolha um dos SKUs de máquinas virtuais (VM) suportados para o modelo. Precisas de ter uma quota de computação do Azure Machine Learning para esse SKU na tua subscrição do Azure.

  9. Selecione Personalizar para especificar a sua configuração de implementação para parâmetros como a contagem de instâncias. Também pode selecionar um endpoint existente para a implementação ou criar um novo. Neste exemplo, especifique um número de instâncias de 1 e crie um novo endpoint para a implementação.

    Captura de ecrã do ecrã de configuração de implementação de um modelo protegido no Foundry.

  10. Selecione Seguinte para avançar para a página de detalhamento de preços .

  11. Consulte a distribuição de preços para a implementação, termos de utilização e contrato de licença associados à oferta do modelo no Azure Marketplace. A divisão de preços indica-lhe qual seria o preço agregado para o modelo implementado, onde a sobretaxa para o modelo é uma função do número de GPUs na instância da VM que selecionou nos passos anteriores. Para além da sobretaxa aplicável ao modelo, também se aplicam encargos de computação do Azure, consoante a sua configuração de implementação. Se tiver reservas existentes ou um plano de poupança no Azure, a fatura dos custos de computação irá honrar e refletir o preço descontado da VM.

    Captura de ecrã da página de análise de preços para uma implementação de modelo protegido no Foundry.

  12. Selecione a caixa para confirmar que compreende e concorda com os termos de utilização. Depois, selecione Implementar. A Foundry cria a sua subscrição à oferta do marketplace e depois cria a implementação do modelo numa computação gerida. Demora cerca de 15 a 20 minutos para concluir a implementação.

Implementações de consumo

Depois de criar com sucesso a sua implantação, siga estes passos para a consumir:

  1. Selecione Modelos + Endpoints em Meus ativos no seu projeto Foundry.
  2. Selecione a sua implementação no separador de implementações de modelos.
  3. Aceda ao separador Teste para realizar uma inferência de exemplo no endpoint.
  4. Volte ao separador Detalhes para copiar o "Target URI" da implementação, que pode usar para fazer inferência com código.
  5. Vá ao separador Consumir da implementação para encontrar exemplos de código para consumo.

Isolamento de rede das implementações

Pode implementar coleções no catálogo de modelos dentro das suas redes isoladas usando uma rede virtual gerida pelo espaço de trabalho. Para mais informações sobre como configurar as redes geridas do seu espaço de trabalho, consulte Configurar uma rede virtual gerida para permitir a saída da internet.

Limitação

Um projeto Foundry com acesso público à rede de entrada desativado só pode suportar uma única implementação ativa de um dos modelos protegidos do catálogo. As tentativas de criar implementações mais ativas resultam em falhas na criação de implementações.

Modelos suportados

As secções seguintes listam os modelos suportados para implementação de computação gerida com faturação pay-as-you-go, agrupados por coleção.

IA Boson

Modelo Tarefa
bosonai-higgs-audio-v3-stt Reconhecimento automático de fala
Higgs-Audio-v2.5 Geração de áudio

Cohere

Modelo Tarefa
Comando A Conclusão do chat
Embed v4 Embeddings
Rerank v3.5 Classificação do texto
Cohere-rerank-v4.0-pro Reordenação da classificação de texto
Cohere-rerank-v4.0-fast Reordenamento da classificação de texto

Domyn

Modelo Tarefa
Domyn-Large Conclusão do chat

Laboratórios Inception

Modelo Tarefa
Mercúrio Conclusão do chat, geração de texto, resumo

NVIDIA

Os microserviços de inferência (NIM) da NVIDIA são contentores que a NVIDIA constrói para modelos de IA otimizados pré-treinados e personalizados que funcionam em GPUs NVIDIA. Pode realizar a implementação dos NIMs NVIDIA que estão disponíveis no catálogo de modelos da Foundry com uma subscrição Standard para a oferta NVIDIA NIM SaaS no Azure Marketplace.

Algumas coisas especiais a notar sobre as NIMs são:

  • As NIMs incluem um período experimental de 90 dias. O teste aplica-se a todas as NIMs associadas a uma subscrição SaaS específica e começa a partir da criação da subscrição SaaS.

  • As subscrições SaaS abrangem um projeto da Foundry. Como múltiplos modelos estão associados a uma única oferta do Azure Marketplace, só precisa de subscrever uma vez a oferta NIM dentro de um projeto, e depois pode implementar todas as NIMs oferecidas pela NVIDIA no catálogo de modelos Foundry. Se quiseres implementar NIMs num projeto diferente sem subscrição SaaS existente, tens de voltar a subscrever a oferta.

Modelo Tarefa
NVIDIA-Nemotron-3-Super-NIM-microservice Conclusão do chat, resposta a perguntas, resumo, geração de texto, resumo do texto
Openfold3_1_2_0-NIM-microserviço Previsão da estrutura do complexo biomolecular
Llama-3.3-Nemotron-Super-49B-v1-NIM-microservice Conclusão do chat
Llama-3.1-Nemotron-Nano-8B-v1-NIM-microservice Conclusão do chat
Deepseek-R1-Distill-Llama-8B-NIM-microserviço Conclusão do chat
Llama-3.3-70B-Instruct-NIM-microservice Conclusão do chat
Llama-3.1-8B-Instruct-NIM-microservice Conclusão do chat
Mistral-7B-Instruct-v0.3-NIM-microservice Conclusão do chat
Mixtral-8x7B-Instruct-v0.1-NIM-microservice Conclusão do chat
Llama-3.2-NV-embedqa-1b-v2-NIM-microservice Embeddings
Llama-3.2-NV-rerankqa-1b-v2-NIM-microservice Classificação do texto
Openfold2-NIM-microservice Ligador de proteínas
Microserviço ProteinMPNN-NIM Ligador de proteínas
MSA-search-NIM-microservice Ligador de proteínas
Rfdiffusion-NIM-microserviço Ligador de proteínas
NVIDIA-Nemotron-Nano-9b-v2-NIM-microservice Conclusão do chat
Trellis-NIM-microservice Imagem para 3D, Texto para 3D, geração 3D
Cosmos-reason1-NIM-microservice Verificação de conclusão de tarefa, Possibilidade de ação, Próxima previsão plausível de ação
Evo2-40b-NIM-microserviço Genomics
Boltz2-NIM-microserviço Previsão de Estrutura
Llama-3.3-Nemotron-Super-49B-v1.5-NIM-microserviço Conclusão do chat, Resumo

Consumir implantações NIM da NVIDIA

Depois de criar a sua implementação, siga os passos em Consume deployments para a consumir.

As NIMs NVIDIA na Foundry expõem uma API compatível com OpenAI. Consulte a referência da API para saber mais sobre a carga útil suportada. O model parâmetro para NIMs no Foundry está definido para um valor padrão dentro do contentor e não é necessário no payload de pedido para o teu endpoint online. O separador Consume da implementação NIM no Foundry inclui exemplos de código para inferência com o URL alvo da sua implementação.

Também pode consumir implementações NIM utilizando o SDK Foundry Models, com limitações que incluem:

Desenvolver e executar agentes com endpoints NIM

As seguintes NIMs NVIDIA do tipo de tarefa de conclusão de chat no catálogo de modelos podem ser usadas para criar e executar agentes usando o Agent Service com várias ferramentas suportadas, com os seguintes dois requisitos adicionais:

  1. Crie uma Ligação Serverless ao projeto usando o endpoint NIM e a chave. A URL de destino para o endpoint NIM na ligação deve ser https://<endpoint-name>.region.inference.ml.azure.com/v1/.
  2. Defina o parâmetro do modelo no corpo do pedido para ser da forma, https://<endpoint>.region.inference.ml.azure.com/v1/@<parameter value per table below> enquanto cria e executa agentes.
NVIDIA NIM model Valor do parâmetro
Llama-3.3-70B-Instruct-NIM-microservice meta/llama-3.3-70b-instruct
Llama-3.1-8B-Instruct-NIM-microservice meta/llama-3.1-8b-instruct
Mistral-7B-Instruct-v0.3-NIM-microservice mistralai/mistral-7b-instruct-v0.3

Varredura de segurança

A NVIDIA assegura a segurança e fiabilidade das imagens de contentores NIM NVIDIA através de uma análise de vulnerabilidades de excelência, gestão rigorosa de patches e processos transparentes. A Microsoft trabalha com a NVIDIA para obter os patches mais recentes das NIMs, de modo a disponibilizar software de produção seguro, estável e fiável dentro da Foundry.

Pode consultar a última hora de atualização da NIM na coluna à direita da página de visão geral do modelo. Pode reimplementar para consumir a versão mais recente do NIM da NVIDIA no Foundry.

Paige AI

Modelo Tarefa
Virchow2G Extração de Características de Imagem
Virchow2G-Mini Extração de Características de Imagem

Voyage AI

Modelo Tarefa
Voyage-3.5-Modelo de Incorporação Embeddings