Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Importante
Traduções não ingleses são fornecidas apenas por conveniência. Por favor, consulte a EN-US versão deste documento para a versão definitiva.
O que é uma Nota de Transparência?
Um sistema de IA inclui não só a tecnologia, mas também as pessoas que a irão utilizar, as pessoas que serão afetadas por ela e o ambiente onde é implementada. Criar um sistema adequado ao seu propósito requer compreender como a tecnologia funciona, quais são as suas capacidades e limitações, e como alcançar o melhor desempenho. As Notas de Transparência da Microsoft destinam-se a ajudá-lo a compreender como funciona a nossa tecnologia de IA, as escolhas que os proprietários do sistema podem fazer que influenciam o desempenho e o comportamento do sistema, e a importância de pensar no sistema como um todo, incluindo a tecnologia, as pessoas e o ambiente. Pode usar as Notas de Transparência ao desenvolver ou implementar o seu próprio sistema ou partilhá-las com as pessoas que irão usar ou ser afetadas pelo seu sistema.
As Notas de Transparência da Microsoft fazem parte de um esforço mais amplo da Microsoft para pôr em prática os nossos Princípios de IA. Para saber mais, consulte os princípios Microsoft IA.
Os fundamentos do Azure AI Agent Service
Introdução
O Azure AI Agent Service é um serviço totalmente gerido, concebido para capacitar os programadores a construir, implementar e escalar de forma segura agentes de IA de alta qualidade e extensíveis, sem necessidade de gerir os recursos de computação e armazenamento subjacentes. Azure AI Agent Service fornece acesso integrado a
Aviso Geral sobre Agentes
Os sistemas de IA agente são concebidos para utilizar capacidades agenticas para alcançar um objetivo de alto nível especificado pelo utilizador. Os sistemas devem ser concebidos para permitir que os utilizadores incorporem supervisão humana, conforme apropriado, para garantir que o sistema está a executar as ações e tarefas conforme pretendido. Se um Agente apresentar comportamentos não intencionais ou indesejáveis, os utilizadores devem ter a capacidade de intervir e tomar as medidas adequadas para mitigar potenciais riscos.
Aviso sobre Agentes em domínios sensíveis
Os utilizadores devem ter cautela ao desenhar e implementar sistemas de IA agente em domínios sensíveis onde as ações do Agente são irreversíveis ou de grande consequência. Tais domínios incluem, mas não se limitam a, finanças e seguros, saúde, jurídico e habitação. Devem também ser tomadas precauções adicionais ao criar IA agente autónoma, conforme descrito mais detalhadamente no nosso Código de Conduta. É responsável por cumprir todas as leis e normas de segurança aplicáveis relevantes para os Agentes que criar utilizando quaisquer Ferramentas e soluções da Foundry, incluindo o Catálogo de Agentes, Exemplos de Código subjacentes e recursos e informações semelhantes (ver abaixo Considerações ao escolher um caso de uso).
Termos-chave
Seguem-se os componentes-chave do Azure AI Agent Service SDK (e da experiência Microsoft Foundry alimentada por ele):
| Termo | Definição |
|---|---|
| Desenvolvedor | Um cliente do Azure AI Agent Service que constrói um Agente. |
| Utilizador | Uma pessoa que utiliza e/ou opera um Agente criado por um programador. |
| Agente | Uma aplicação ou sistema que utiliza modelos de IA generativa com ferramentas para aceder e interagir com fontes de dados do mundo real, APIs e sistemas para alcançar objetivos especificados pelo utilizador, como responder a perguntas, realizar ações ou automatizar completamente fluxos de trabalho, com ou sem supervisão humana. |
| Ferramenta | Uma funcionalidade incorporada ou definida à medida que permite a um Agente realizar tarefas simples ou complexas ou interagir com fontes de informação, aplicações e/ou serviços através do Agent Service SDK ou portal Foundry. |
| Ferramenta de Conhecimento | Uma ferramenta que permite a um Agente aceder e processar dados de fontes internas e externas, incluindo informação para além da data limite de treino do modelo, para melhorar a precisão e relevância das respostas às consultas dos utilizadores. |
| Ferramenta de Ação | Uma ferramenta que permite a um Agente executar tarefas e agir em nome dos utilizadores, integrando-se com sistemas externos, APIs e serviços. |
| Thread | Uma sessão de conversa entre um Agente e um utilizador. Os Threads armazenam Mensagens e tratam automaticamente o truncamento para encaixar o conteúdo no contexto de um modelo. |
| Mensagem | Uma mensagem criada por um Agente ou utilizador. As mensagens podem incluir texto, imagens e outros ficheiros. As mensagens são armazenadas como uma lista na Thread. |
| Corre | A ativação de um agente para começar a executar com base no conteúdo da Thread. O Agente utiliza a sua configuração e as Mensagens do Thread para realizar tarefas ao chamar modelos e ferramentas. Como parte de uma Execução, o Agente acrescenta Mensagens ao Thread. |
| Executar passos | Uma lista detalhada de passos que o Agente deu como parte de uma Run. Um Agente pode chamar ferramentas ou criar Mensagens durante a sua execução. Examinar os Passos de Execução permite-lhe perceber como o Agente está a chegar aos seus resultados finais. |
| Workflow | Uma sequência declarativa de ações que orquestra agentes para automatizar processos complexos. Os fluxos de trabalho no Foundry podem ser desenhados, executados e publicados usando uma interface gráfica. |
| Exemplo | Um modelo, manifesto, exemplo de código, exemplo de fluxo de trabalho ou outro exemplo que demonstre como pode construir Agentes, aplicações ou soluções e tirar partido dos benefícios do Microsoft Foundry Agent Service. |
Conceitos relevantes de capacidade
| Termo | Definição |
|---|---|
| Sistema de IA agente | Um termo guarda-chuva que inclui as seguintes capacidades comuns que os programadores podem ativar nos seus Agentes quando utilizam o Serviço de Agentes de IA do Azure. |
| Autonomia | A capacidade de executar ações de forma independente e exercer controlo sobre o comportamento do sistema com graus variados de supervisão humana. |
| Fundamentação | A capacidade de processar informação enquanto compreende o contexto e os resultados de vários potenciais cursos de ação, tarefas ou envolvimentos com utilizadores terceiros. |
| Planeamento | A capacidade de decompor objetivos e ações complexos e especificados pelo utilizador em tarefas e subtarefas para execução. As tarefas planeadas são criadas por um ou mais agentes. |
| Memória | A capacidade de armazenar ou reter informação ou contexto de observações, interações ou comportamentos do sistema anteriores. |
| Adaptabilidade | A capacidade de alterar ou ajustar comportamentos e melhorar o desempenho com base em informações recolhidas do ambiente ou experiências anteriores. |
| Extensibilidade | A capacidade de chamar recursos (por exemplo, fontes externas de conhecimento) e executar funções (por exemplo, enviar um email) a partir de sistemas, software ou plataformas ligados, incluindo a utilização de ferramentas. |
Capacidades
Comportamento do sistema
O Azure AI Agent Service oferece integração com dados geridos de forma segura, ferramentas prontas a usar e chamadas automáticas de ferramentas que permitem aos programadores criar Agentes capazes de raciocinar, planear e executar tarefas a partir de um objetivo de alto nível especificado pelo utilizador. O Azure AI Agent Service permite o desenvolvimento rápido do Agent com gestão de memória integrada e uma interface sofisticada para integrar de forma fluida com plataformas de computação populares, ligando capacidades de LLM a ações programáticas de uso geral.
As principais funcionalidades do Azure AI Agent Service incluem:
- Desenvolver e automatizar rapidamente processos: Os agentes precisam integrar-se de forma fluida com as ferramentas, sistemas e APIs certos para realizar ações determinísticas ou não determinísticas.
- Integre com abrangentes conectores de memória e conhecimento: Os agentes precisam de gerir o estado da conversa e conectar-se com fontes de conhecimento internas e externas para obterem o contexto apropriado para completar um processo.
- Escolha flexível do modelo: Agentes construídos com o modelo adequado para as suas tarefas podem permitir uma melhor integração de informação de múltiplos tipos de dados, obter melhores resultados para cenários específicos de cada tarefa e melhorar a eficiência de custos em implementações escaladas.
- Prontidão empresarial incorporada: Os agentes precisam de ser capazes de apoiar as necessidades únicas de privacidade e conformidade de dados de uma organização, escalar com as necessidades da organização e completar tarefas de forma fiável e com elevada qualidade.
Capacidades de extensibilidade
As capacidades de extensibilidade do Azure AI Agent Service permitem que os Agentes interajam com fontes de conhecimento, sistemas e plataformas para fundamentar e melhorar a funcionalidade do Agente. Especificamente:
Fundamentação segura dos resultados do Agente com um ecossistema rico de fontes de conhecimento
Os programadores podem configurar um rico ecossistema de fontes de conhecimento para permitir que um Agente aceda e processe dados de múltiplas fontes, melhorando a precisão das respostas e resultados. Os conectores a estas fontes de dados operam dentro dos parâmetros da rede designados. As Ferramentas de Conhecimento integradas no Azure AI Agent Service incluem:
- File Search (uma ferramenta incorporada de geração aumentada por recuperação (RAG) para processar e pesquisar dados privados no Pesquisa de IA do Azure, Armazenamento de Blobs do Azure e ficheiros locais)
- Conexão com o Bing Search (uma ferramenta de pesquisa na web que utiliza o Bing Search para recolher informações da internet)
- SharePoint (ferramentas integradas que ligam os documentos internos da organização em SharePoint para respostas fundamentadas)
- Fabric Data Agent (uma ferramenta integrada para conversar com dados estruturados sobre Microsoft Fabric usando IA generativa)
- Traga os seus dados licenciados (uma ferramenta que permite o grounding usando dados proprietários acedidos através de uma chave API licenciada obtida pelo programador junto do fornecedor de dados, por exemplo, o TripAdvisor)
Os Agentes simplificam o acesso seguro a dados ao SharePoint e ao Fabric AI Skills através da autenticação on-behalf-of (OBO), permitindo ao Agente aceder apenas aos ficheiros SharePoint ou Fabric para os quais o utilizador tem permissões.
Permitir ações autónomas com ou sem intervenção humana através de Ferramentas de Ação
Os programadores podem ligar um Agente a sistemas, APIs e serviços externos através de Ferramentas de Ação, permitindo que o Agente execute tarefas e tome ações em nome dos utilizadores. Ferramentas de ação integradas no Azure AI Agent Service incluem:
- Code Interpreter (uma ferramenta que pode escrever e executar Python código num ambiente seguro, lidar com diversos formatos de dados e gerar ficheiros com dados e elementos visuais)
- Azure Logic Apps (uma ferramenta PaaS baseada na cloud que permite fluxos de trabalho automatizados usando 1.400+ conectores incorporados)
- Funções do Azure (uma ferramenta que permite a um Agente executar código serverless para ações síncronas, assíncronas, de longa duração e orientadas a eventos)
- Ferramentas especificadas pela OpenAPI 3.0 (uma função personalizada definida com a especificação OpenAPI 3.0 para ligar um Agente a APIs externas baseadas em OpenAPI de forma segura)
- Ferramentas do Model Context Protocol (um serviço personalizado ligado via Model Context Protocol através de um servidor MCP remoto existente conectado a um Agente).
- Ferramenta de Investigação Profunda: (uma ferramenta que permite investigação web em vários passos com o modelo o3-deep-research e Grounding com Bing Search).
- Uso do Computador: (uma ferramenta para realizar tarefas interagindo com sistemas informáticos e aplicações através das suas interfaces)
- Ferramenta de Automação do Navegador (uma ferramenta que pode realizar tarefas reais do navegador através de prompts em linguagem natural, permitindo atividades de navegação automática sem intervenção humana intermédia)
- Geração de Imagens (uma ferramenta para gerar e editar imagens)
- Agent2Agent (um serviço personalizado conectado pelo protocolo agente-para-agente a um endpoint de agente existente de um agente Foundry).
Orquestração de sistemas multi-agente
Sistemas multi-agente que utilizam o Azure AI Agent Service podem ser concebidos para alcançar fluxos de trabalho autónomos de alto desempenho para cenários específicos. Em sistemas multi-agente, múltiplos agentes autónomos conscientes do contexto, sejam humanos ou sistemas de IA, interagem ou trabalham em conjunto para alcançar objetivos individuais ou coletivos especificados pelo utilizador. Azure AI Agent Service funciona de fábrica com frameworks de orquestração multi-agente compatíveis com wireline1 com a Responses API, como Microsoft Agent Framework, um SDK open-source e runtime concebido para permitir aos programadores construir, implementar e gerir sistemas multi-agente sofisticados com facilidade.
Ao construir uma nova solução multi-agente, comece por criar agentes singleton com o Azure AI Agent Service para obter os agentes mais fiáveis, escaláveis e seguros. Pode então orquestrar estes agentes em conjunto, usando frameworks de orquestração suportados. O Microsoft Agent Framework está em constante evolução para encontrar os melhores padrões de colaboração para que agentes (e humanos) possam trabalhar em conjunto. Funcionalidades que demonstram valor de produção com o Microsoft Agent Framework podem depois ser transferidas para o Microsoft Foundry Agent Service, caso procure suporte para produção e mudanças que não causem interrupções.
Consulte as Perguntas Frequentes sobre transparência Agent Framework para saber sobre considerações e riscos adicionais ao criar orquestrações multi-agente usando Microsoft Agent Framework.
Os fluxos de trabalho da Foundry estendem a orquestração multi-agente ao fornecer um designer visual e uma configuração baseada em YAML para construir, testar e implementar processos agentes. Cada fluxo de trabalho pode coordenar múltiplos agentes, permitindo automação modular e traçabilidade. O designer de workflow suporta versionamento, registos de alterações e monitorização visual, facilitando a gestão de lógica complexa e garantindo transparência.
1Compatível com linha fixa significa que uma API pode comunicar e trocar dados de uma forma totalmente compatível com um protocolo existente, formatos de dados existentes e padrões de comunicação, neste caso o protocolo Responses API. Significa que dois sistemas podem trabalhar em conjunto sem necessidade de alterações na sua implementação principal.
Casos de uso
Usos pretendidos
Azure Serviço de Agentes de IA é flexível e agnóstico em relação ao caso de uso. Isto apresenta múltiplas possibilidades para automatizar tarefas rotineiras e desbloquear novas possibilidades para o trabalho do conhecimento – sejam agentes de produtividade pessoal que enviam emails e agendam reuniões, agentes de investigação que monitorizam continuamente tendências de mercado e automatizam a criação de relatórios, agentes de vendas que podem pesquisar leads e qualificá-los automaticamente, agentes de apoio ao cliente que fazem seguimento proativo com mensagens personalizadas, ou agentes de desenvolvimento que podem atualizar a sua base de código ou evoluir um repositório de código de forma interativa. Aqui estão exemplos de usos pretendidos de agentes desenvolvidos usando o Azure AI Agent Service:
- Cuidados de Saúde: Orientação Simplificada da Equipa e Apoio Administrativo Básico: O assistente administrativo de um hospital destaca um agente para compilar procedimentos operacionais padrão, diretórios de pessoal e transformar políticas em orientações concisas para novos enfermeiros; os materiais finais são revistos e aprovados pelos Recursos Humanos, reduzindo o trabalho repetitivo sem comprometer a qualidade do conteúdo.
- Retalho: Orientação Personalizada de Compras: O proprietário de uma boutique local pode recorrer a um agente que recomende opções de presentes com base nas necessidades declaradas e nas compras anteriores do cliente, guiando os clientes de forma responsável por catálogos complexos de produtos, sem divulgar informações tendenciosas ou enganosas.
- Governo: Triagem de Pedidos de Cidadãos e Coordenação de Eventos Comunitários: Um secretário municipal utiliza um sistema para categorizar pedidos de serviço recebidos (por exemplo, reparações de buracos), atribuí-los aos departamentos certos e compilar atualizações simples de status; Os responsáveis analisam e finalizam as comunicações para manter a transparência e a precisão.
- Educação: Apoio à Investigação e Recolha de Referências: Um professor depende de um agente para recolher artigos e recursos adequados à idade de fontes reputadas para uma aula de ciências planetárias; O professor verifica a precisão factual dos materiais e ajusta-os para se adequarem ao currículo, garantindo que os alunos recebam conteúdos fiáveis.
- Fabrico: Supervisão de Inventário e Agendamento de Tarefas: Um supervisor de fábrica destaca um agente para monitorizar os níveis de inventário, agendar o reabastecimento quando as reservas acabam e otimizar os turnos; A gestão confirma as sugestões do agente e mantém a autoridade final de decisão.
- Deep Research Tool: Saiba mais sobre os usos pretendidos, capacidades, limitações, riscos e considerações ao escolher um modelo de casos de uso com tecnologia de investigação profunda na nota de transparência Azure OpenAI.
- Utilização de Computadores: A ferramenta de Utilização de Computadores traz riscos adicionais significativos de segurança e privacidade, incluindo ataques de injeção rápida. Saiba mais sobre os usos pretendidos, capacidades, limitações, riscos e considerações ao escolher um caso de uso na nota de transparência Azure OpenAI.
- Ferramenta de Geração de Imagens: A ferramenta de Geração de Imagens é potenciada pelo modelo gpt-image-1. Saiba mais sobre os usos pretendidos, capacidades, limitações, riscos e considerações ao escolher um modelo de casos de uso na nota de transparência Azure OpenAI.
As amostras de agentes têm usos específicos pretendidos que são configuráveis pelos programadores para desenvolver cuidadosamente, implementar e implantar agentes. Veja os manifestos do agente.
Considerações na escolha de um caso de uso
Incentivamos os clientes a utilizarem o Azure AI Agent Service nas suas soluções ou aplicações inovadoras. No entanto, aqui estão alguns aspetos a considerar ao escolher um caso de uso:
- Evite cenários em que o uso ou indevido do sistema possa resultar em lesões físicas ou psicológicas significativas a um indivíduo. Por exemplo, cenários que diagnosticam pacientes ou prescrevem medicamentos têm potencial para causar danos significativos.
- Evite cenários em que o uso ou indevido do sistema possa ter um impacto consequente nas oportunidades de vida ou no estatuto legal. Exemplos incluem cenários em que o sistema ou agente de IA pode afetar o estatuto legal de um indivíduo, os seus direitos legais ou o seu acesso a crédito, educação, emprego, cuidados de saúde, habitação, seguros, benefícios sociais, serviços, oportunidades ou os termos em que são prestados.
- Evite cenários de alto risco que possam causar danos. O modelo utilizado num agente pode refletir certas opiniões sociais, preconceitos e outros conteúdos indesejáveis presentes nos dados de treino ou nos exemplos fornecidos no prompt. Como resultado, alertamos contra o uso de agentes em cenários de alto risco onde comportamentos injustos, pouco fiáveis ou ofensivos possam ser extremamente dispendiosos ou causar danos.
- Considere cuidadosamente casos de uso em domínios ou indústrias de alto risco onde as ações do Agente são irreversíveis ou altamente consequentes. Tais indústrias incluem, mas não se limitam a, saúde, medicina, finanças ou domínios jurídicos. Por exemplo: a capacidade de realizar transações financeiras ou dar aconselhamento financeiro, a capacidade de interagir diretamente com serviços externos, a capacidade de administrar medicamentos ou dar aconselhamento relacionado com a saúde, a capacidade de partilhar informações sensíveis publicamente ou a possibilidade de conceder acesso a sistemas críticos.
- Considerações legais e regulatórias. A Microsoft leva a sério a segurança e o cumprimento das obrigações legais e regulatórias. Esforçamo-nos sempre por cumprir as leis, regulamentos e normas aplicáveis no desenvolvimento e implementação de tecnologias de IA, incluindo o Microsoft Responsible AI Standard. É responsabilidade da sua organização avaliar as implicações de segurança e as potenciais obrigações legais e regulatórias específicas ao utilizar quaisquer ferramentas e soluções da Foundry, incluindo agentes e amostras subjacentes de agentes. As respostas da IA podem ser imprecisas, e as ações da IA devem ser monitorizadas adequadamente com supervisão humana. Certos usos e ofertas podem estar sujeitos a requisitos legais e regulamentares, podem exigir licenças ou podem não ser adequados para todas as indústrias, cenários ou casos de uso. Além disso, os agentes e as amostras subjacentes do Agente não podem ser usados de forma proibida pelas leis, regulamentos, termos de serviço ou códigos de conduta relevantes.
- A Microsoft não criou, testou nem verificou quaisquer sistemas, APIs, servidores, agentes ou serviços de terceiros aos quais possa decidir ligar-se. Quando se liga a um sistema, API, servidor, agente ou serviço de terceiros (não da Microsoft), alguns dados serão partilhados com esse serviço, e a sua aplicação ou agente poderá receber dados em troca. Recomendamos rever que dados serão partilhados e estar atento às práticas de terceiros para retenção e localização dos dados. Considere e gere cuidadosamente se os seus dados irão fluir para além dos limites de conformidade e geográficos da sua organização e quaisquer implicações relacionadas. A Microsoft não tem qualquer responsabilidade para consigo ou para com outros relativamente à utilização de quaisquer sistemas, APIs, servidores, ferramentas, agentes ou serviços remotos. A utilização destes serviços é regida pelo acordo com o fornecedor. É responsável por qualquer utilização e custos associados.
- A Ferramenta de Automação do Navegador acarreta riscos substanciais de segurança e responsabilidade do utilizador. A Ferramenta de Automação do Navegador apresenta riscos de segurança significativos. Tanto erros de julgamento por parte da IA como a presença de instruções maliciosas ou confusas em páginas web que a IA encontra podem levar a executar comandos que você ou outros não pretendem, o que pode comprometer a segurança dos seus navegadores, computadores e de quaisquer contas a que o navegador ou IA tenha acesso ou de outros utilizadores, incluindo sistemas pessoais, financeiros ou empresariais. Ao utilizar a Ferramenta de Automação do Navegador, está a reconhecer que assume responsabilidade e responsabilidade por qualquer utilização dela e de quaisquer agentes resultantes que crie com ela, incluindo no que diz respeito a quaisquer outros utilizadores a quem disponibilize funcionalidade da Ferramenta de Automação do Navegador, incluindo através de agentes resultantes.
Limitações
Limitações técnicas, fatores operacionais e alcances
: Como Azure Serviço de Agentes de IA trabalha com uma variedade de modelos, o sistema global herda as limitações específicas desses modelos. Antes de escolher um modelo para incorporar no seu agente, avalie-o cuidadosamente para compreender as suas limitações. Considere rever a Nota de Transparência Azure OpenAI para obter informações adicionais sobre limitações de IA generativa que também possam ser relevantes para o sistema e reveja outras boas práticas para incorporar IA generativa na sua aplicação de agente. - Complexidades da orquestração de ferramentas: Os Agentes de IA dependem de múltiplas ferramentas integradas e conectores de dados (como Bing Search, SharePoint e Azure Logic Apps). Se alguma destas ferramentas estiver mal configurada, indisponível ou devolver resultados inconsistentes, ou se um grande número de ferramentas estiver configurado num único agente, a orientação do agente pode tornar-se fragmentada, desatualizada ou enganadora.
- Representação e apoio desiguais: Ao servir grupos de utilizadores diversos, os Agentes de IA podem apresentar desempenho desigual se variedades linguísticas, dados regionais ou domínios de conhecimento especializados estiverem sub-representados. Um agente de retalho, por exemplo, pode oferecer recomendações de produtos menos fiáveis a clientes que falam línguas sub-representadas.
- Processos de tomada de decisão opacos: À medida que os agentes combinam grandes modelos de linguagem com sistemas externos, rastrear o "porquê" por detrás das suas decisões pode tornar-se desafiante. Um utilizador que utilize tal agente pode ter dificuldade em perceber por que certas ferramentas ou combinações de ferramentas foram escolhidas para responder a uma consulta, complicando a confiança e a verificação dos resultados ou ações do agente.
- Melhores práticas e normas em evolução: Os agentes são uma tecnologia emergente, e as orientações sobre integração segura, utilização transparente de ferramentas e implementação responsável continuam a evoluir. Manter-se atualizado com as melhores práticas e procedimentos de auditoria mais recentes é crucial, pois mesmo usos bem-intencionados podem tornar-se arriscados sem uma revisão e aperfeiçoamento contínuos.
Desempenho do sistema
Boas práticas para melhorar o desempenho do sistema
-
Avalie o desempenho dos agentes: Avalie os agentes quanto à sua fiabilidade identificam os pedidos dos utilizadores, selecionam ferramentas e processos adequados e cumprem as tarefas atribuídas. Utilize os seguintes avaliadores do Microsoft Azure AI Evaluation SDK:
- Resolução de intenções: Mede quão bem o agente identifica o pedido do utilizador, incluindo o quão bem ele analisa a intenção do utilizador, faz perguntas esclarecedoras e lembra os utilizadores finais do seu âmbito de capacidades.
- Precisão na chamada de ferramenta: Avalia a capacidade do agente para selecionar as ferramentas apropriadas e processar os parâmetros corretos a partir de etapas anteriores.
- Adesão à tarefa: Mede quão bem a resposta final do agente cumpre as tarefas atribuídas, de acordo com a mensagem do sistema e passos anteriores.
- Forneça dados de confiança: Recuperar ou carregar dados não confiáveis para os seus sistemas pode comprometer a segurança dos seus sistemas ou aplicações. Para mitigar estes riscos nas suas aplicações que utilizam o Azure AI Agent Service, recomendamos registar e monitorizar as interações do LLM (entradas/saídas) para detetar e analisar potenciais injeções de prompt, delimitar claramente a entrada do utilizador para minimizar o risco de injeção de prompt, restringir o acesso do LLM a recursos sensíveis, limitar as suas capacidades ao mínimo necessário e isolá-lo de sistemas e recursos críticos. Saiba sobre abordagens adicionais de mitigação nas orientações de segurança para Grandes Modelos de Linguagem.
- Escolha e integre ferramentas com cuidado: Selecione ferramentas estáveis, bem documentadas e adequadas aos usos e objetivos pretendidos pelo agente. Por exemplo, utilize um conector de base de dados fiável para consultas factuais ou uma API bem testada para executar ações específicas. Limite o número de ferramentas àquelas que realmente melhoram a funcionalidade e especifique como e quando o agente deve usá-las.
- Fornecer controlos proativos ao utilizador para os limites do sistema: Considere criar controlos de utilizador para dar aos utilizadores que operam o agente de IA a capacidade de definir proativamente limites sobre que ações ou ferramentas são permitidas e em que domínios o agente pode operar.
- Estabelecer supervisão em tempo real e processos com intervenção humana no ciclo: Considere fornecer aos utilizadores controlos adequados para, em tempo real, autorizar, verificar, rever e aprovar o comportamento do sistema agente, incluindo ações, tarefas planeadas, ambientes operativos ou limites de domínio, e o acesso a ferramentas de conhecimento ou ação. Particularmente para tarefas críticas ou de alto risco, considere incorporar passos obrigatórios de revisão e aprovação humana por parte do utilizador. Assegure que um utilizador ou operador humano possa facilmente intervir, corrigir ou sobrepor-se às decisões do agente, especialmente quando essas decisões têm implicações de segurança ou legais. Para mais informações, consulte Dependência excessiva da IA.
- Garantir inteligibilidade e rastreabilidade para a tomada de decisões humanas: Forneça aos utilizadores informações antes, durante e depois das ações serem tomadas para os ajudar a compreender justificações para as decisões, identificar onde intervir e resolver problemas. Incorpore instrumentação ou registo dentro do sistema, como rastreios OpenTelemetry do Azure AI Agent Service, para rastrear saídas, incluindo prompts, passos de modelo e chamadas de ferramentas. Isto permite a reconstrução do processo de raciocínio do agente, o isolamento de questões, o ajuste dos prompts, o refinamento da integração da ferramenta e a verificação da adesão às diretrizes. Para mais informações, consulte Monitorização usando o Application Insights.
- Instruções e orientações do agente de camadas: Divida tarefas complexas em etapas ou subinstruções dentro do prompt do sistema. Isto pode ajudar o agente a abordar o raciocínio em múltiplos passos de forma mais eficaz, reduzindo erros e melhorando a clareza do resultado final.
- Reconhecer limiares de complexidade para escalabilidade: Quando a mensagem do sistema de um único agente tem consistentemente dificuldades em lidar com a complexidade, amplitude ou profundidade de uma tarefa — como produzir frequentemente resultados incompletos, encontrar gargalos de raciocínio ou exigir um conhecimento extenso específico de domínio — o sistema pode beneficiar da transição para uma arquitetura multi-agente. Como boa prática, monitorize indicadores de desempenho como a precisão da resposta, a latência e a frequência de erros. Se os refinamentos no prompt do agente único já não trazem melhores resultados, considere decompor a carga de trabalho em subtarefas especializadas, cada uma gerida pelo seu próprio agente. Ao segmentar tarefas complexas (por exemplo, dividir investigação e interpretação de políticas em agentes separados), pode manter a modularidade, usar o conhecimento especializado do domínio de forma mais eficaz e reduzir a sobrecarga cognitiva de qualquer agente individual.
Avaliar e integrar o Azure AI Agent Service para o seu uso
- Riscos e impactos do Agente de Mapas. Antes de desenvolver ou implementar a sua aplicação agente, considere cuidadosamente o impacto das ações pretendidas e as consequências de ações ou uso de ferramentas que não funcionam como pretendido – como gerar ou agir com base em informações imprecisas ou causar resultados tendenciosos ou injustos – em diferentes fases.
- Garantir uma supervisão e controlo humanos adequados. Considere incluir controlos para ajudar os utilizadores a verificar, rever e/ou aprovar ações de forma atempada, o que pode incluir a revisão de tarefas planeadas ou chamadas para fontes de dados externas, por exemplo, conforme apropriado para o seu sistema. Considere incluir controlos para uma remediação adequada de falhas do sistema por parte dos utilizadores, especialmente em cenários e casos de uso de alto risco. Por exemplo, a ferramenta MCP permite passar cabeçalhos personalizados, como chaves de autenticação ou esquema, conforme necessário por um servidor MCP remoto. Em casos como este, recomendamos que revise todos os dados partilhados com servidores remotos e, opcionalmente, que os loge para efeitos de auditoria. Esteja atento às práticas de terceiros para retenção e localização de dados.
- Defina claramente as ações e os requisitos associados. Definir claramente quais as ações permitidas (limites de ação), proibidas ou que necessitam de autorização explícita pode ajudar o seu sistema agente a funcionar como esperado e com o nível adequado de supervisão humana.
- Defina claramente os ambientes operacionais pretendidos. Defina claramente os ambientes operativos pretendidos (limites de domínio) onde o seu agente foi concebido para desempenhar eficazmente.
- Assegure a inteligibilidade adequada na tomada de decisões. Fornecer informações aos utilizadores antes, durante e depois de as ações serem tomadas e/ou as ferramentas serem chamadas pode ajudá-los a compreender a justificação da ação ou porque certas ações foram tomadas ou porque a aplicação está a comportar-se de determinada forma, onde intervir e como resolver problemas.
- Siga as melhores práticas adicionais de IA generativa, conforme apropriado para o seu sistema, incluindo recomendações na Nota de Transparência Azure OpenAI.
Saiba mais sobre IA responsável
- Princípios de IA da Microsoft
- Recursos de IA responsável da Microsoft
- Microsoft Azure Cursos de aprendizagem sobre IA responsável