Implantar Modelos do Microsoft Foundry no portal do Foundry

Neste artigo, você aprenderá a usar o portal do Foundry para implantar um Modelo de Fundação em um recurso de Foundry para inferência. Os Modelos de Foundry incluem modelos como os Azure OpenAI, modelos Meta Llama e muito mais. Depois de implantar um Modelo de Foundry, você pode interagir com ele no Foundry Playground e usá-lo no código.

Este artigo usa um Modelo de Fábrica de parceiros e comunidade Llama-3.2-90B-Vision-Instruct para ilustração. Modelos de parceiros e comunidade exigem que você assine Azure Marketplace antes da implantação. Por outro lado, os Modelos de Fundição vendidos diretamente pela Azure, como o Azure OpenAI nos Modelos de Fundição, não têm esse requisito. Para obter mais informações sobre Foundry Models, incluindo as regiões em que eles estão disponíveis para implantação, consulte Foundry Models vendidos diretamente pela Azure e Foundry Models de parceiros e da comunidade.

Pré-requisitos

Para concluir este artigo, você precisa:

Implantar um modelo

Implante um modelo seguindo estas etapas no portal do Foundry:

  1. Entre no Microsoft Foundry. Verifique se o interruptor da Nova Fundição está ativado. Essas etapas referem-se ao Foundry (versão nova).

  2. Na home page do portal do Foundry, selecione Descobrir na navegação superior direita e, em seguida, Modelos no painel esquerdo.

  3. Selecione um modelo e examine seus detalhes no cartão de modelo. Este artigo usa Llama-3.2-90B-Vision-Instruct para ilustração.

  4. Selecione Implantar>Configurações personalizadas para personalizar sua implantação. Como alternativa, você pode usar as configurações de implantação padrão selecionando Implantar>Configurações Padrão.

  5. Para Foundry Models de parceiros e comunidade, você precisa registrar-se no Azure Marketplace. Esse requisito se aplica a Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de uso e selecione Concordar e Continuar para aceitar os termos.

    Nota

    Para modelos Foundry vendidos diretamente por Azure, como o modelo Azure OpenAI gpt-4o-mini, você não assina Azure Marketplace.

  6. Defina as configurações de implantação:

    • Por padrão, a implantação usa o nome do modelo. Você pode modificar esse nome antes de implantar.
    • Durante a inferência, o nome da implantação é usado no model parâmetro para rotear solicitações para essa implantação específica.

    Selecione Implantar para criar sua implantação.

    Dica

    Cada modelo suporta diferentes tipos de implantação, fornecendo diferentes garantias de residência de dados ou taxa de transferência. Consulte os tipos de implantação para obter mais detalhes. Neste exemplo, o modelo dá suporte ao tipo de implantação Global Standard.

  7. Quando a implantação for concluída, você chegará nos Foundry Playgrounds, onde poderá testar o modelo interativamente. Seu projeto e recurso devem estar em uma das regiões de implantação com suporte para o modelo. Verifique se o status da implantação mostra êxito em sua lista de implantação.

Gerenciar modelos

Você pode gerenciar as implantações de modelo existentes no recurso usando o portal do Foundry.

  1. Selecione Compilar na navegação superior direita.

  2. Selecione Modelos no painel esquerdo para ver a lista de implantações no recurso.

Na página de detalhes de uma implantação, você pode exibir detalhes e chaves do endpoint, ajustar as configurações de implantação ou excluir uma implantação desnecessária.

Testar a implantação no playground

Você pode interagir com o novo modelo no portal do Foundry usando o playground. O playground é uma interface baseada na Web que permite interagir com o modelo em tempo real. Use o playground para testar o modelo com prompts diferentes e ver as respostas do modelo.

  1. Na lista de implantações, selecione a implantação llama-3.2-90B-Vision-Instruct para abrir a página do playground.

  2. Digite o prompt e veja os resultados.

  3. Selecione a guia Código para ver detalhes sobre como acessar a implantação do modelo programaticamente.

Usar o modelo com código

Para executar a inferência no modelo implantado, confira os seguintes exemplos:

  • Para usar a API de Respostas com os Modelos Foundry vendidos diretamente pela Azure, como modelos de IA Microsoft, DeepSeek e Grok, consulte Como gerar respostas de texto com Modelos Microsoft Foundry.

  • Para usar a API de Respostas com modelos OpenAI, consulte Introdução à API de respostas.

  • Para usar a API de completação de Chat com modelos oferecidos por parceiros, como o modelo Llama implantado neste artigo, consulte o suporte para modelos para completar chats.

Limites de disponibilidade e cota regionais de um modelo

Para Modelos de Fundição, a cota padrão varia de acordo com o modelo e a região. Determinados modelos só podem estar disponíveis em algumas regiões. Para obter mais informações sobre disponibilidade e limites de quotas, consulte cotas e limites dos Modelos do Microsoft Foundry no Azure OpenAI e cotas e limites dos Modelos do Microsoft Foundry.

Cota para implantar e executar inferência em um modelo

Para modelos Foundry, a implantação e execução da inferência consomem uma cota que o Azure atribui à sua assinatura por região e por modelo, em unidades de Tokens-per-Minute (TPM). Ao se inscrever no Foundry, você recebe a cota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que a cria, o que reduz a cota disponível para esse modelo. Você pode continuar criando implantações e atribuindo TPMs a elas até atingir o limite de cota.

Ao atingir o limite de cota, você só poderá criar novas implantações desse modelo se:

  • Solicite mais cota enviando um formulário de aumento de cota.
  • Ajuste a cota alocada em outras implantações de modelos no portal do Foundry para liberar tokens para novas implantações.

Para obter mais informações sobre cota, consulte Quotas e limites dos Modelos Foundry da Microsoft e Manage Azure OpenAI quota.

Solucionando problemas

Questão Resolução
Cota excedida Solicite mais cota ou realoque o TPM de implementações existentes.
Não há suporte para a região Verifique a disponibilidade regional e implante em uma região com suporte.
Erro de assinatura do Marketplace Verifique se você tem as permissões necessárias para assinar ofertas do Azure Marketplace.
O status da implantação mostra Falha Confirme se o modelo está disponível em sua região selecionada e se você tem cota suficiente.