Compartilhar via


Melhore as respostas da IA usando a Geração Aumentada por Recuperação

A RAG (Geração Aumentada de Recuperação) em Microsoft Copilot Studio combina os recursos de raciocínio de modelos de linguagem com conhecimento confiável e específico da organização. Ele permite que os agentes produzam respostas precisas, contextuais e fundamentadas baseadas no conteúdo da empresa, em vez de depender apenas da memória do modelo.

Neste artigo, você aprenderá a:

  • Entenda como o RAG aumenta a confiabilidade e a capacidade de aterramento da IA.
  • Descreva como o Copilot Studio recupera e sintetiza o conhecimento.
  • Identifique as fontes de conhecimento suportadas e suas restrições.
  • Reconheça as considerações de governança, conformidade e segurança em IA.
  • Aplique os conceitos RAG ao projetar agentes em ambientes empresariais.

Introdução ao RAG

RAG é um padrão de design que melhora a precisão da IA ao combinar duas capacidades:

  • Recuperação de informação: Busca em fontes de dados empresariais.
  • Geração de texto: Sintetizar as informações recuperadas usando um modelo de linguagem.

Essa abordagem reduz informações incorretas, aumenta a confiança e gera respostas baseadas em conteúdo organizacional real.

Arquitetura RAG no Copilot Studio

O pipeline RAG do Copilot Studio é baseado nos serviços de Azure AI e integra-se de forma estreita com as barreiras de confiança, conformidade e segurança da Microsoft.

Componentes principais:

  • Copilot Studio runtime: gerencia o pipeline de conversação
  • Motor de otimização de consultas: Reescreve e interpreta consultas
  • Search providers: Bing, SharePoint, Graph, Dataverse, Azure AI Search
  • Motor de sumarização: Cria respostas fundamentadas e citadas
  • Camadas de moderação: Valida mensagens e resumos
  • Armazenamento de estado: memória de curto prazo (menos de 30 dias; não usada para treinamento)
  • Repositórios de telemetria e feedback: Fornece insights e supervisão

Diagrama do fluxo de trabalho do COPILOT Studio RAG mostrando moderação de mensagens, otimização de consulta, recuperação, resumo e etapas de validação.

Como o RAG funciona no Copilot Studio

O RAG no Copilot Studio segue um processo de quatro etapas:

  1. Reescrita de consulta
  2. Recuperação de conteúdo
  3. Sumarização e geração de respostas
  4. Validação de segurança e governança

1. Reescrita de consultas

Copilot Studio otimiza a pergunta do usuário antes de pesquisar:

  • Esclarece o significado
  • Adiciona sinais contextuais (últimos 10 turnos)
  • Melhora a correspondência de palavras-chave
  • Gera consultas otimizadas para busca

Esse processo aumenta a qualidade da recuperação e reduz resultados irrelevantes.

2. Recuperação de conteúdo

Após reescrever a consulta, o sistema a executa em todas as fontes de conhecimento que você configurou. Copilot Studio obtém os três principais resultados de cada fonte, equilibrando relevância com desempenho. O comportamento de cada fonte de conhecimento varia dependendo de fatores como autenticação, indexação, formatos de arquivo e restrições de armazenamento.

A tabela a seguir resume todas as fontes de conhecimento suportadas e suas capacidades, restrições e requisitos de autenticação:

Fonte de conhecimento Description Authentication Capacidades-chave, limites e restrições
Dados públicos (sites) Sites indexados pelo Bing None
  • Os sites devem ser indexados pelo Bing.
  • O Bing não pode ser restrito a uma região.
  • Confirmar a propriedade do site traz melhores resultados.
  • Sites públicos: Profundidade máxima de duas subpáginas (/en/help/), sem páginas diretas.
  • Pesquisa personalizada do Bing: uma ID de configuração, mas pode ser definida usando uma fórmula, os custos do Azure são cobertos pela Microsoft, até 400 URLs, opções de ordenação personalizada, profundidade máxima de duas subpáginas (/en/help/), suporta páginas diretas.
SharePoint/OneDrive Conteúdo interno da empresa (apenas interno) Autenticação delegada do Microsoft Entra ID
  • Exige que o usuário seja autenticado com Microsoft Entra ID para fazer chamadas delegadas.
  • Arquivos correspondentes (máximo 15 MB) são recuperados para obter trechos detalhados para resumir.
  • Filtragem de segurança: os resultados retornados só incluem o conteúdo ao qual o usuário tem acesso de leitura.
  • O recurso premium "Resultados da Pesquisa Aprimorados" usa a fundamentação do Microsoft Graph do locatário para mensagens, aumentando a qualidade dos resultados e o tamanho máximo do arquivo (200 MB).
Arquivos enviados Arquivos enviados para o armazenamento do Dataverse None
  • Arquivos (máximo 512 MB) são armazenados no armazenamento de arquivos do Dataverse, com um máximo de 500 arquivos por agente.
  • Os arquivos são indexados no Dataverse Search e se beneficiam do reconhecimento de imagens/tabelas em PDFs.
  • Por padrão, as citações não contêm um link para o arquivo, mas esse link pode ser adicionado com personalizações.
Tabelas do Dataverse Registros estruturados de negócios (apenas internos) Autenticação delegada do Microsoft Entra ID
  • Tabelas do Dataverse (máximo 15) podem ser configuradas com sinônimos e um glossário para melhorar a busca.
  • Consultas em linguagem natural são transformadas em consultas analíticas sobre dados estruturados.
Conectores de gráficos Aplicativos empresariais indexados em Microsoft Graph (somente interno) Autenticação delegada do Microsoft Entra ID
  • Requer que o usuário seja autenticado usando Microsoft Entra ID para fazer chamadas delegadas.
  • Conecte-se a outras fontes de conhecimento corporativas indexadas no índice Microsoft Graph, como ServiceNow KB, Confluence, dados personalizados do site da empresa e muito mais.
  • O recurso premium "Resultados da Pesquisa Aprimorados" usa a fundamentação de Microsoft Graph do Locatário.
Conectores em tempo real Dados em tempo real de sistemas como Salesforce, Zendesk, SQL (apenas interno) O usuário deve estar logado
  • Conectores Copilot recuperam dados estruturados do Salesforce, ServiceNow, Zendesk, Azure SQL.
  • O usuário logado deve criar conexões com os sistemas de destino.
Azure AI Search Busca semântica baseada em vetores Endpoint configurado
  • Retorna resultados de um índice de Azure AI Search vetorizado vinculado.
  • A conexão não é delegada: sem ajuste de segurança, sem necessidade de autenticação para o usuário.
Dados personalizados Dados fornecidos por APIs, fluxos ou lógica personalizada None
  • Requer uma etapa prévia para consultar a fonte (por exemplo, usando fluxos em nuvem, conectores ou requisições HTTP).
  • Os resultados são passados como entradas para as respostas generativas para resumir uma resposta para a consulta.
  • Os dados de entrada precisam estar no formato tabela, com três propriedades: Content (tipicamente trechos de conteúdo relevante), ContentLocation (opcional, tipicamente uma URL) e Title (opcional).

3. Sumarização e geração de respostas

  • A IA sintetiza conteúdo recuperado
  • Aplica instruções personalizadas para tom, formatação, segurança ou brevidade
  • Gera citações para os dados subjacentes
  • Personaliza as respostas usando o contexto do usuário (como idioma, departamento ou região)

4. Validação de segurança e governança

Cada resposta passa por camadas automatizadas de validação:

  • Moderação de respostas prejudiciais, maliciosas, não conformes ou protegidas por direitos autorais
  • Validação de aterramento e remoção de informações incorretas

Nenhum dado de cliente é usado para treinar modelos de linguagem.

Considerações-chave ao usar RAG

O RAG funciona melhor para perguntas e respostas factuais, não para análise profunda de documentos.

RAG é ideal para:

  • Respondendo perguntas de bases de conhecimento
  • Resumo de políticas, perguntas frequentes e conteúdo processual
  • Recuperação de fatos específicos de arquivos ou sistemas internos

RAG não é destinado a:

  • Comparação completa de documentos
  • Avaliação de conformidade de políticas
  • Raciocínio complexo sobre documentos longos e não estruturados

Considerações de segurança e conformidade em IA generativa

Os recursos de IA generativos em Microsoft Copilot Studio foram projetados para fornecer recursos avançados de conversação e raciocínio, mantendo forte segurança, privacidade e controles de conformidade.

Modelos de base e hospedagem

  • Copilot Studio conta com modelos básicos que o OpenAI treina.
  • Copilot Studio usa um dos modelos openai mais recentes para respostas generativas.
  • Os modelos são executados inteiramente em serviços Azure AI Foundry internos, alinhados com o limite de Confiança dos Serviços da Microsoft.
  • Todo o uso do modelo segue os princípios e políticas da Microsoft Responsible AI .

Instruções personalizadas

Os criadores podem fornecer instruções personalizadas para moldar o comportamento do modelo, influenciar o tom ou adicionar regras de formatação. Essas instruções ajudam a adaptar as respostas generativas às necessidades da organização, ao mesmo tempo em que respeitam os filtros de segurança e os controles de conformidade.

Armazenamento e processamento de dados

  • Armazenamento e processamento de dados no Copilot Studio pode mover dados através de fronteiras regionais quando a hospedagem de modelo local não estiver disponível.
  • Quando essa movimentação de dados não é permitida, os administradores podem usar configurações de ambiente para desabilitar recursos específicos, como Azure modelos de linguagem ou pesquisa do Bing.
  • Copilot Studio não coleta nem usa dados do cliente para modelos de linguagem de treinamento.

Manuseio operacional de dados

  • Durante a operação, o sistema armazena temporariamente conversas em uma loja protegida e operada pela Microsoft.
  • O acesso autorizado do pessoal da Microsoft é restrito por meio de Estações de Trabalho de Acesso Seguro (SAWs) com controles Just-In-Time (JIT).
  • As organizações podem controlar ainda mais o acesso por meio do Customer Lockbox, exigindo aprovação explícita antes que os engenheiros de suporte da Microsoft possam visualizar os dados.

Telemetria de solução de problemas

  • Recursos de IA generativa geram dados extras de solução de problemas, mas apenas para ações iniciadas pelo criador no painel de Teste, especificamente quando o criador dá um sinal de aprovação ou de reprovação a uma resposta.
  • Nenhum dado extra do cliente é registrado fora desse ciclo explícito de feedback.

Monitoramento e segurança do abuso

Como várias camadas de segurança já protegem os recursos de IA generativa, a IA generativa do Copilot Studio desabilita o monitoramento de abuso do Azure AI para evitar registro adicional de dados do cliente.