Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Neste artigo, aprende como usar o portal Foundry para implementar um Modelo Foundry num recurso Foundry para inferência. Os Modelos Foundry incluem modelos como modelos Azure OpenAI, modelos Meta Llama e outros. Depois de implementares um Modelo Foundry, podes interagir com ele no Foundry Playground e usá-lo a partir do código.
Este artigo utiliza um modelo de fundição de parceiros e comunidade Llama-3.2-90B-Vision-Instruct para fins de ilustração. Modelos de parceiros e da comunidade exigem que subscreva o Azure Marketplace antes da implementação. Por outro lado, os modelos Foundry vendidos diretamente pela Azure, como o Azure OpenAI em modelos Foundry, não têm este requisito. Para mais informações sobre os Foundry Models, incluindo as regiões onde estão disponíveis para implementação, consulte Foundry Models vendidos diretamente por Azure e Foundry Models de parceiros e comunidade.
Pré-requisitos
Para completar este artigo, precisa de:
Uma subscrição do Azure com um método de pagamento válido. Se não tiver uma subscrição do Azure, crie uma conta do Azure paga para começar. Se estiver a usar GitHub Models, pode atualizar para Foundry Models e criar uma subscrição Azure no processo.
A função de Contribuidor de Serviços Cognitivos ou permissões equivalentes no recurso Foundry para criar e gerir implantações. Para mais informações, consulte funções de RBAC do Azure.
Um projeto Microsoft Foundry. Este tipo de projeto é gerido através de um recurso da Foundry.
Foundry Models de parceiros e comunidade requerem acesso a Azure Marketplace para criar subscrições. Certifique-se de que tem as permissões necessárias para aderir às ofertas de modelos. Os modelos Foundry vendidos diretamente por Azure não têm este requisito.
Implementar um modelo
Implemente um modelo seguindo estes passos no portal Foundry:
-
Iniciar sessão no Microsoft Foundry. Certifica-te de que a opção New Foundry está ativada. Estes passos referem-se à Foundry (nova).
Na página inicial do portal da Foundry, selecione Descobrir no canto superior direito da navegação, depois Modelos no painel esquerdo.
Selecione um modelo e veja os seus detalhes no cartão de modelos. Este artigo usa
Llama-3.2-90B-Vision-Instructpara ilustração.Selecione Definir>definições personalizadas para personalizar a sua implementação. Em alternativa, pode usar as definições de implementação por defeito selecionando Implementar>definições por defeito.
Para modelos Foundry de parceiros e comunidade, precisa de subscrever o Azure Marketplace. Este requisito aplica-se a
Llama-3.2-90B-Vision-Instruct, por exemplo. Leia os termos de utilização e selecione Concordar e Proceder para aceitar os termos.Nota
Para modelos Foundry vendidos diretamente pela Azure, como o modelo Azure OpenAI
gpt-4o-mini, não é necessário subscrever o Azure Marketplace.Configure as definições de implementação:
- Por defeito, a implementação utiliza o nome do modelo. Pode modificar este nome antes de implementar.
- Durante a inferência, o nome da implementação é usado no
modelparâmetro para encaminhar pedidos para esta implementação em particular.
Selecione Implementar para criar a sua implementação.
Dica
Cada modelo suporta diferentes tipos de implementação, proporcionando diferentes garantias de residência de dados ou de rendimento. Consulte os tipos de implantação para mais detalhes. Neste exemplo, o modelo suporta o tipo de implementação Global Standard.
Quando a implementação termina, aterras nos Foundry Playgrounds , onde podes testar o modelo de forma interativa. O seu projeto e recurso devem estar numa das regiões suportadas para implementação do modelo. Verifique se o estado de implementação mostra Bem-sucedido na sua lista de implementação.
Modelos de gestão
Pode gerir as implementações de modelos existentes no recurso usando o portal Foundry.
Selecione Construir no canto superior direito da navegação.
Selecione Modelos no painel esquerdo para ver a lista de implementações no recurso.
A partir da página de detalhes de uma implementação, pode visualizar detalhes e chaves do endpoint, ajustar as definições de implementação ou eliminar uma implementação que já não precisa.
Testar a implantação no recreio
Podes interagir com o novo modelo no portal da Foundry usando o parque infantil. O playground é uma interface web que permite interagir com o modelo em tempo real. Usa o playground para testar o modelo com diferentes sugestões e ver as respostas do modelo.
Da lista de implementações, selecione a implementação Llama-3.2-90B-Vision-Instruct para abrir a página do playground.
Escreve o teu prompt e vê os resultados.
Selecione o separador Código para ver detalhes sobre como aceder à implementação do modelo de forma programática.
Usar modelo com código
Para executar inferência sobre o modelo implementado, veja os seguintes exemplos:
Para usar a API Responses com modelos Foundry vendidos diretamente por Azure, como Microsoft AI, DeepSeek e modelos Grok, veja How to generate text responses with Microsoft Foundry Models.
Para usar a API Responses com modelos OpenAI, consulte Começar com a API Responses.
Para usar a API de completação de chat com modelos vendidos por parceiros, como o modelo Llama implementado neste artigo, veja suporte de modelos para completações de chat.
Disponibilidade regional e limites de quotas de um modelo
Para Modelos de Fundição, a quota padrão varia consoante o modelo e a região. Certos modelos podem estar disponíveis apenas em algumas regiões. Para mais informações sobre disponibilidade e limites de quotas, consulte quotas e limites dos modelos Microsoft Foundry em Azure OpenAI e quotas e limites dos modelos Microsoft Foundry.
Quota para implementar e executar inferência num modelo
Para os Modelos Foundry, a implementação e execução de inferência consomem quotas que o Azure atribui à sua assinatura por região e por modelo em Token por Minuto (TPM). Quando se inscreve na Foundry, recebe uma quota padrão para a maioria dos modelos disponíveis. Depois, atribuis TPM a cada implementação à medida que o crias, o que reduz a quota disponível para esse modelo. Pode continuar a criar implantações e a atribuir-lhes TPMs até atingir o limite da sua cota.
Quando atingir o seu limite de quota, só pode criar novas implementações desse modelo se:
- Solicite mais quotas submetendo um formulário de aumento de quota.
- Ajusta a quota atribuída a outras implementações de modelos no portal Foundry, para libertar tokens para novas implementações.
Para mais informações sobre quotas, consulte quotas e limites dos Modelos de Fundição da Microsoft e Gerir quota de Azure OpenAI.
Resolução de problemas
| Problema | Resolução |
|---|---|
| Quota ultrapassada | Peça mais quotas ou realoque TPM das implementações existentes. |
| Região não suportada | Verifique a disponibilidade regional e implemente numa região suportada. |
| Erro de subscrição do Marketplace | Verifique se tem as permissões requeridas para subscrever Azure Marketplace ofertas. |
| O estado da implantação indica Erro | Confirme que o modelo está disponível na região selecionada e que tem uma quota suficiente. |