Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
** O Serviço de Agente Foundry permite-lhe ligar e usar modelos alojados atrás dos seus gateways de IA, como API Management do Azure ou outros gateways de modelos de IA não geridos pela Azure. Esta capacidade, chamada traga o seu próprio modelo, permite-lhe manter o controlo sobre os endpoints do seu modelo enquanto utiliza as capacidades do agente Foundry.
Importante
Para efeitos desta documentação, BYOM modelos refere-se a modelos de terceiros que traz para a Foundry e não inclui Modelos Diretos do Azure. O Foundry Agent Service apoia a capacidade de trazer o seu próprio modelo (BYOM). Se usar o Foundry Agent Service para interagir com modelos BYOM, fá-lo por sua conta e risco. Os modelos BYOM são considerados Produtos Não Microsoft ao abrigo dos Termos do Produto Microsoft e são regidos pelos seus próprios termos de licença.
Se usar o Foundry Agent Service para interagir com modelos BYOM, é responsável por implementar as suas próprias mitigações de IA responsáveis dentro do Foundry Agent Service, como metaprompt, filtros de conteúdo ou outros sistemas de segurança.
Se utilizar o Foundry Agent Service para interagir com modelos BYOM, é responsável por garantir que a utilização do modelo BYOM cumpre os seus requisitos de tratamento de dados. É responsável por rever todos os dados partilhados com os modelos BYOM e por compreender as práticas de terceiros para retenção e localização dos dados. É sua responsabilidade gerir se os seus dados irão fluir para além da conformidade com o Azure e dos limites geográficos da sua organização, bem como quaisquer implicações relacionadas ao utilizar modelos BYOM.
Esta capacidade permite às organizações:
- Mantenha o controlo sobre os endpoints do modelo por detrás da infraestrutura empresarial existente.
- Integre de forma segura com gateways empresariais utilizando as políticas de segurança existentes.
- Crie agentes que usem modelos sem os expor publicamente.
- Aplicar os requisitos de conformidade e governação ao acesso a modelos de IA.
Neste artigo, cria uma ligação de gateway ao endpoint do seu modelo de IA, implanta um agente de solicitação que encaminha pedidos através do gateway e verifica o fluxo de ponta a ponta.
Pré-requisitos
- Uma subscrição do Azure. Crie um gratuitamente.
- Um projeto Microsoft Foundry.
- Acede às credenciais do seu gateway de IA empresarial, como uma chave de subscrição de Gestão de APIs, uma chave API para outro gateway de modelo de IA que não seja do Azure, ou credenciais de um fornecedor OAuth 2.0 usando credenciais do cliente.
- Para gerir ligações através da linha de comandos:
- CLI do Azure versão 2.67 ou posterior.
- Python 3.10 ou posterior.
- O
azure-ai-projectspacote SDK (versão 2.0.0 ou posterior). Para os passos de instalação, consulte o quickstart.
Permissões necessárias
Precisa das seguintes atribuições de funções:
| Recurso | Função obrigatória |
|---|---|
| Projeto da fundição | Utilizador do Azure AI ou superior |
| Grupo de recursos (para implementação de ligações) | Colaborador |
Criar uma ligação de modelo
Use o portal Foundry para criar uma ligação ao seu modelo.
Pode escolher modelos atrás de um recurso existente do API Management do Azure ou de um gateway de modelos de IA que não seja do Azure. Ao utilizar estes passos, pode adicionar vários modelos que implementam a API de completação de chats OpenAI.
Para adicionar uma ligação ao modelo no portal Foundry:
Iniciar sessão no Microsoft Foundry.
Selecione Operar>Consola de Administração.
Abra a aba Todos os projetos.
Na lista de projetos, encontre o seu projeto e selecione o link na coluna Recurso Pai.
Selecione o separador Modelos ligados ao administrador e depois selecione Adicionar.
O assistente para adicionar ligação de modelo abre-se.
Na página Tipo de Ligação, selecione API Management do Azure e depois selecione o nome de um recurso de Gestão de API existente e a implementação do modelo. O modelo deve implementar a API de completação de chat compatível com OpenAI.
Na página de Autenticação , selecione uma opção para autenticação na API Management.
Selecione uma chave API , como uma chave de subscrição de Gestão de APIs, ou Identidade Gerida , se estiver configurada no seu projeto Foundry.
Chave API: Insira o valor da chave no campo fornecido. Opcionalmente, especifique um nome de cabeçalho de chave API para usar ao passar a chave API se o seu gateway exigir um cabeçalho personalizado.
Identidade Gerida: Na Audiência, introduza o serviço-alvo para o token de identidade gerida, como
https://cognitiveservices.azure.com/. Para a configuração necessária de Gestão de APIs, consulte Configurar autenticação de identidade gerida para Gestão de APIs.
Na página de configuração do modelo , configure pelo menos uma implementação de modelo que apareça no Foundry para utilização com agentes.
- Selecionar + Adicionar modelo.
- Insira um nome de implementação (usado nas chamadas API) e o nome correspondente, e o nome de visualização.
- Guarde a configuração do modelo.
Repita os passos anteriores para adicionar mais modelos à ligação, se necessário.
Na página Avançada , faça opcionalmente os seguintes passos:
- Introduza uma versão da API , se exigido pelas implementações do seu modelo.
- Ative a definição Incluir o nome da implementação no caminho da URL se o seu gateway expor a API de completação de chat num caminho ao estilo Azure OpenAI que inclua o nome da implementação (por exemplo,
/deployments/{deploymentName}/chat/completions). Deixe a configuração desativada se o seu gateway usar um caminho ao estilo OpenAI sem o nome da implementação (por exemplo,/chat/completions) e depender de outros mecanismos de encaminhamento para direcionar as requisições para a implementação do modelo correto. - Selecionar + Adicionar cabeçalho para adicionar um cabeçalho estático que deve ser incluído nos pedidos ao gateway. Repita para adicionar vários cabeçalhos se necessário.
Selecionar Adicionar.
Configurar autenticação de identidade gerida para a Gestão de APIs
Para configurar a autenticação Managed Identity para a API Management, complete a seguinte configuração em Azure:
Ativar a identidade gerida no recurso do projeto Foundry.
No Azure portal, aceda ao seu recurso Foundry.
Vá a Projetos>, selecione > do seu projeto.
Ative um dos
- Identidade gerida atribuída pelo sistema , ou
- Identidade gerida atribuída ao utilizador.
Para a validação de tokens no API Management, obtenha o ID do aplicativo (cliente) da identidade gerida.
- Primeiro, obtenha o ID do objeto da identidade gerida a partir da configuração desta no seu projeto.
- Pesquise esse ID de objeto nas aplicações empresariais do Microsoft Entra ID para localizar o ID correspondente da aplicação (cliente).
Valide o token de identidade gerida na API Management.
Na sua política de entrada de Gestão de APIs, use a política validate-azure-ad-token para impor validação de tokens para pedidos da Microsoft Foundry.
- Defina o
audienceelemento para o mesmo valor que configurou no campo Audience da ligação Foundry. - Defina o ID da aplicação de identidade gerida em
client-application-ids.
Exemplo:
<validate-azure-ad-token tenant-id="{{your-tenant-id}}" header-name="Authorization" failed-validation-httpcode="401" failed-validation-error-message="Unauthorized"> <client-application-ids> <application-id>{{managed-identity-client-id}}</application-id> </client-application-ids> <audiences> <audience>{{audience-configured-in-foundry-connection}}</audience> </audiences> </validate-azure-ad-token>- Defina o
A ligação é criada e aparece na lista no separador Modelos ligados ao administrador .
Implementações de modelos ligados ao administrador
O Foundry implementa automaticamente os modelos que adicionas através de uma ligação, para que possas usá-los nos teus projetos.
Cada modelo que adicionas no assistente de ligação corresponde a uma implementação no Foundry.
Pode selecionar uma implementação ligada ao administrador ao configurar o modelo de um agente. O Foundry encaminha automaticamente os pedidos dos agentes para estas implementações através do gateway conectado.
Criar uma ligação de modelo
Use a CLI do Azure para criar uma ligação a modelos atrás do seu gateway de IA.
O Serviço Agente suporta dois tipos de ligações: ligações de Gestão de API e ligações Model Gateway .
Escolha o tipo de ligação que corresponde ao seu gateway:
| Tipo de ligação | Utilização quando | Valor de categoria |
|---|---|---|
| Gestão de APIs | Já usas o API Management do Azure para encaminhamento de modelos e queres padrões inteligentes de gestão de APIs. | ApiManagement |
| Gateway de Modelo | Usa OpenAI, MuleSoft ou um gateway personalizado e precisa de descoberta estática ou dinâmica de modelos. | ModelGateway |
Para especificações detalhadas de ligação, consulte os exemplos de ligação em GitHub.
Implantar a ligação
Clone ou descarregue o repositório de amostras Foundry e localize o modelo de Bicep para o seu tipo de ligação em
infrastructure/infrastructure-setup-bicep/01-connections/. O diretório contém ficheiros Bicep e ficheiros de parâmetros separados para Gestão de APIs e ligações Model Gateway.Implemente a ligação executando
az deployment group createcom o seu grupo de recursos, o ficheiro modelo Bicep e o ficheiro de parâmetros correspondente. Substitua os valores provisórios no ficheiro de parâmetros pelo URL e credenciais do endpoint do gateway antes de implementar. Para a referência completa de comandos, veja az group deployment create.Dica
Uma implementação bem-sucedida retorna
provisioningState: Succeededna saída do comando.Verifica a ligação no portal da Foundry. Vai ao portal da Foundry e seleciona o teu projeto. Navegue até Recursos Conectados nas definições do seu projeto. A nova ligação aparece com um estado Ativo e o URL do endpoint do gateway que especificaste.
Crie um agente de prompt com a conexão do modelo
Depois de criar a ligação, crie e execute um agente de prompts que utilize modelos por detrás do seu gateway. A principal diferença em relação a um agente padrão é o formato do nome de implementação do modelo: <connection-name>/<model-name>.
Defina as seguintes variáveis de ambiente:
Variável Valor Exemplo FOUNDRY_PROJECT_ENDPOINTURL do endpoint do seu projeto https://<your-ai-services-account>.services.ai.azure.com/api/projects/<project-name>FOUNDRY_MODEL_DEPLOYMENT_NAME<connection-name>/<model-name>my-apim-connection/gpt-4oInicialize um
AIProjectClientcom o seu endpoint eDefaultAzureCredential, a seguir, chameagents.create_version()com umPromptAgentDefinition. Defina omodelparâmetro para oFOUNDRY_MODEL_DEPLOYMENT_NAMEvalor.Uma chamada bem-sucedida devolve um objeto agente com os seus
id,name, eversioncampos preenchidos.Obtenha o cliente OpenAI com
project.get_openai_client(), crie uma conversa comconversations.create(), e envie um pedido comresponses.create(). Passe a referência do agente emextra_bodycomo{"agent_reference": {"name": agent.name, "type": "agent_reference"}}.Uma resposta bem-sucedida devolve o texto de resposta do modelo, confirmando que o agente está a enviar pelo seu gateway.
Nota
Se a resposta falhar com um
model not founderro, verifique se oFOUNDRY_MODEL_DEPLOYMENT_NAMEvalor usa o formato<connection-name>/<model-name>.Limpe ao eliminar a conversa e a versão do agente após os testes serem concluídos.
Para um exemplo completo e funcional, veja as amostras do SDK agent em GitHub. Para detalhes da API, consulte AIProjectClient e PromptAgentDefinition.
Verificar a implementação
Depois de implementar o seu agente, confirme que todo o pipeline funciona corretamente:
Verifique o estado da ligação — No portal Foundry, vá a Recursos Ligados nas definições do seu projeto. Verifica se a ligação mostra um estado Ativo . Se o estado for Inativo, verifique a URL e as credenciais do endpoint do gateway.
Enviar um prompt de teste — Use o SDK para criar uma conversa e enviar um pedido conforme descrito na secção anterior. Uma resposta bem-sucedida devolve o texto de resposta do modelo, confirmando que o agente pode aceder ao modelo através do seu gateway.
Revise os registos do gateway — Confirme que os pedidos foram encaminhados corretamente. Para Gestão de APIs, consulte API Management analytics no portal Azure. Para outros gateways, reveja o registo de pedidos do seu gateway. Deverias ver pedidos recebidos do endpoint do Serviço de Agente.
Dica
Se algum passo falhar, consulte a secção Resolução de problemas comuns para os passos de resolução.
Detalhes do tipo de ligação
Esta secção fornece detalhes de referência sobre cada tipo de ligação e as suas opções de configuração.
Conexão de Gestão de API
As ligações de Gestão de API fornecem padrões inteligentes e seguem as convenções padrão da Gestão de API.
| Configuração | Valor padrão |
|---|---|
| Endpoint para a Listagem de Implementações | /deployments |
| Obter endpoint de implementação | /deployments/{deploymentName} |
| Fornecedor | AzureOpenAI |
Prioridade de configuração:
- Valores explícitos de metadados (prioridade máxima).
- Padrões padrão de gestão de API (recurso).
Métodos de autenticação:
- API Key — Autenticação padrão da chave de subscrição.
- Microsoft Entra ID — Integração de identidade empresarial.
Conexão do Model Gateway
As ligações Model Gateway fornecem uma interface unificada para ligar a vários fornecedores de modelos de IA. Estas ligações suportam tanto a descoberta de modelos estáticos como dinâmicos:
- Descoberta estática — Os modelos são pré-definidos nos metadados da ligação. Ideal para implementações fixas e listas de modelos aprovadas por empresas.
- Descoberta dinâmica — Os modelos são descobertos em tempo de execução usando endpoints da API. Ideal para implementações em constante mudança e catálogos geridos pelo fornecedor.
Os tipos de autenticação suportados são a chave API e o OAuth 2.0. As chaves API são armazenadas de forma segura e referenciadas através do sistema de credenciais.
Resolver problemas comuns
| Problema | Resolução |
|---|---|
| A ligação mostra o estado de Inativo | Verifique se o URL do endpoint do gateway é acessível e as credenciais de autenticação são válidas. |
O agente retorna o erro model not found |
Confirme que o FOUNDRY_MODEL_DEPLOYMENT_NAME valor usa o formato correto: <connection-name>/<model-name>. |
| Erros de tempo limite do gateway | Verifique se os endpoints do seu gateway são acessíveis a partir da rede de Serviços de Agentes. Para redes privadas, consulte a orientação de isolamento de rede na secção de Limitações. |
| Falhas de autenticação | Para a gestão de APIs, verifique a sua chave de subscrição. Para o Model Gateway, verifique a chave API ou a configuração OAuth 2.0. |
Configurações suportadas
- Apenas os agentes de prompt no Agent SDK suportam esta funcionalidade.
- Ferramentas de agentes suportadas: Interpretador de Código, Funções, Pesquisa de Ficheiros, OpenAPI, Foundry IQ, Grounding SharePoint, Agente de Dados Fabric, MCP e Automação de Navegador.
- Configurações de rede suportadas:
- A rede pública é suportada tanto para Gestão de APIs como para gateways auto-hospedados.
- Para isolamento total da rede:
- API Management como o seu gateway de IA: Implemente o Foundry e a API Management juntos usando this GitHub template.
- Gateway auto-hospedado: Certifique-se de que os endpoints do seu gateway são acessíveis dentro da rede virtual usada pelo Serviço de Agentes.