Implemente Modelos Microsoft Foundry utilizando o portal Foundry

Neste artigo, aprende como usar o portal Foundry para implementar um Modelo Foundry num recurso Foundry para inferência. Os Modelos Foundry incluem modelos como modelos Azure OpenAI, modelos Meta Llama e outros. Depois de implementares um Modelo Foundry, podes interagir com ele no Foundry Playground e usá-lo a partir do código.

Este artigo utiliza um modelo de fundição de parceiros e comunidade Llama-3.2-90B-Vision-Instruct para fins de ilustração. Modelos de parceiros e da comunidade exigem que subscreva o Azure Marketplace antes da implementação. Por outro lado, os modelos Foundry vendidos diretamente pela Azure, como o Azure OpenAI em modelos Foundry, não têm este requisito. Para mais informações sobre os Foundry Models, incluindo as regiões onde estão disponíveis para implementação, consulte Foundry Models vendidos diretamente por Azure e Foundry Models de parceiros e comunidade.

Pré-requisitos

Para completar este artigo, precisa de:

Implementar um modelo

Implemente um modelo seguindo estes passos no portal Foundry:

  1. Iniciar sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se à Foundry (nova).

  2. Na página inicial do portal da Foundry, selecione Descobrir no canto superior direito da navegação, depois Modelos no painel esquerdo.

  3. Selecione um modelo e veja os seus detalhes no cartão de modelos. Este artigo usa Llama-3.2-90B-Vision-Instruct para ilustração.

  4. Selecione Definir>definições personalizadas para personalizar a sua implementação. Em alternativa, pode usar as definições de implementação por defeito selecionando Implementar>definições por defeito.

  5. Para modelos Foundry de parceiros e comunidade, precisa de subscrever o Azure Marketplace. Este requisito aplica-se a Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de utilização e selecione Concordar e Proceder para aceitar os termos.

    Nota

    Para modelos Foundry vendidos diretamente pela Azure, como o modelo Azure OpenAI gpt-4o-mini, não é necessário subscrever o Azure Marketplace.

  6. Configure as definições de implementação:

    • Por defeito, a implementação utiliza o nome do modelo. Pode modificar este nome antes de implementar.
    • Durante a inferência, o nome da implementação é usado no model parâmetro para encaminhar pedidos para esta implementação em particular.

    Selecione Implementar para criar a sua implementação.

    Dica

    Cada modelo suporta diferentes tipos de implementação, proporcionando diferentes garantias de residência de dados ou de rendimento. Consulte os tipos de implantação para mais detalhes. Neste exemplo, o modelo suporta o tipo de implementação Global Standard.

  7. Quando a implementação termina, aterras nos Foundry Playgrounds , onde podes testar o modelo de forma interativa. O seu projeto e recurso devem estar numa das regiões suportadas para implementação do modelo. Verifique se o estado de implementação mostra Bem-sucedido na sua lista de implementação.

Modelos de gestão

Pode gerir as implementações de modelos existentes no recurso usando o portal Foundry.

  1. Selecione Construir no canto superior direito da navegação.

  2. Selecione Modelos no painel esquerdo para ver a lista de implementações no recurso.

A partir da página de detalhes de uma implementação, pode visualizar detalhes e chaves do endpoint, ajustar as definições de implementação ou eliminar uma implementação que já não precisa.

Testar a implantação no recreio

Podes interagir com o novo modelo no portal da Foundry usando o parque infantil. O playground é uma interface web que permite interagir com o modelo em tempo real. Usa o playground para testar o modelo com diferentes sugestões e ver as respostas do modelo.

  1. Da lista de implementações, selecione a implementação Llama-3.2-90B-Vision-Instruct para abrir a página do playground.

  2. Escreve o teu prompt e vê os resultados.

  3. Selecione o separador Código para ver detalhes sobre como aceder à implementação do modelo de forma programática.

Usar modelo com código

Para executar inferência sobre o modelo implementado, veja os seguintes exemplos:

Disponibilidade regional e limites de quotas de um modelo

Para Modelos de Fundição, a quota padrão varia consoante o modelo e a região. Certos modelos podem estar disponíveis apenas em algumas regiões. Para mais informações sobre disponibilidade e limites de quotas, consulte quotas e limites dos modelos Microsoft Foundry em Azure OpenAI e quotas e limites dos modelos Microsoft Foundry.

Quota para implementar e executar inferência num modelo

Para os Modelos Foundry, a implementação e execução de inferência consomem quotas que o Azure atribui à sua assinatura por região e por modelo em Token por Minuto (TPM). Quando se inscreve na Foundry, recebe uma quota padrão para a maioria dos modelos disponíveis. Depois, atribuis TPM a cada implementação à medida que o crias, o que reduz a quota disponível para esse modelo. Pode continuar a criar implantações e a atribuir-lhes TPMs até atingir o limite da sua cota.

Quando atingir o seu limite de quota, só pode criar novas implementações desse modelo se:

  • Solicite mais quotas submetendo um formulário de aumento de quota.
  • Ajusta a quota atribuída a outras implementações de modelos no portal Foundry, para libertar tokens para novas implementações.

Para mais informações sobre quotas, consulte quotas e limites dos Modelos de Fundição da Microsoft e Gerir quota de Azure OpenAI.

Resolução de problemas

Problema Resolução
Quota ultrapassada Peça mais quotas ou realoque TPM das implementações existentes.
Região não suportada Verifique a disponibilidade regional e implemente numa região suportada.
Erro de subscrição do Marketplace Verifique se tem as permissões requeridas para subscrever Azure Marketplace ofertas.
O estado da implantação indica Erro Confirme que o modelo está disponível na região selecionada e que tem uma quota suficiente.