Implemente a segurança de dados de IA

Concluído

A segurança dos dados é crucial para a IA porque os sistemas de IA amplificam os desafios existentes na classificação de dados, permissões e governação. A IA facilita a descoberta de dados — o que significa que quaisquer problemas no manuseamento dos dados são agravados, levando a potenciais fugas de dados e acesso não autorizado. A IA não só depende dos dados, como também cria novos dados que ganham valor ao longo do tempo, tornando-se um alvo para os atacantes. Embora a segurança de dados não seja uma disciplina nova, a IA torna a gestão correta da segurança dos dados ainda mais crítica.

Um princípio fundamental da segurança dos dados de IA é que as decisões de controlo de acessos nunca devem ser transferidas para o sistema de IA. A IA só deve ter acesso aos mesmos dados que o utilizador em nome do qual atua.

Captura de ecrã dos desafios da governação e segurança da IA, mostrando como a IA amplifica preocupações existentes sobre a segurança dos dados.

Compreenda o panorama de dados dos sistemas de IA

Os sistemas de IA generativa interagem com uma vasta gama de tipos de dados que requerem proteção:

  • Dados de treino: Os conjuntos de dados usados para construir e afinar modelos, que podem conter informação proprietária, dados pessoais ou material protegido por direitos de autor
  • Dados de suporte: Documentos, bases de dados e bases de conhecimento que a IA recupera em tempo de execução através de técnicas como a geração aumentada através de recuperação (RAG)
  • Dados de interação: Prompts do utilizador, respostas do modelo, históricos de conversas e payloads de chamadas de ferramenta gerados durante a utilização
  • Resultados gerados: Resumos, código, relatórios e outros artefactos criados pela IA, que podem combinar informação de múltiplas fontes sensíveis

Cada tipo de dado tem requisitos de segurança, padrões de acesso e implicações regulatórias diferentes. Uma estratégia abrangente de segurança de dados em IA aborda todos eles.

Captura de ecrã dos tipos de dados usados pela IA generativa, mostrando as categorias de dados consumidos, criados e acedidos.

Implementar controlo de acesso com identidades de agentes

O princípio de que a IA deve aceder apenas aos mesmos dados que o utilizador em nome do qual atua é simples de afirmar, mas implementá-lo requer uma gestão de identidade construída para esse propósito. Os quadros de identidade de agentes fornecem formas padronizadas de governar, autenticar e autorizar agentes de IA.

Os frameworks de identidade de agente normalmente suportam dois modos de autenticação:

  • Acesso delegado (em nome do utilizador): O agente opera sob a identidade do utilizador iniciado usando um fluxo em nome do utilizador. O agente herda apenas as permissões a que o utilizador consentiu e está autorizado. Isto reforça diretamente o princípio de que a IA não pode aceder a dados que o utilizador não consegue aceder.
  • Acesso apenas por aplicação: O agente atua sob a sua própria identidade dedicada, regida pelas suas próprias atribuições de funções. Este modo é usado para fluxos de trabalho em segundo plano ou não acompanhados, onde não há utilizador envolvido.

Quando cria um agente numa plataforma moderna de IA, o serviço pode automaticamente criar uma identidade de agente. Os administradores atribuem então funções a essa identidade usando controlo de acesso baseado em papéis (RBAC), aplicando o acesso de privilégio mínimo ao nível do agente — separado das permissões dos programadores humanos que o construíram.

Esta separação é importante para a auditabilidade: as operações realizadas pelo agente de IA aparecem nos registos sob a identidade do agente, não na conta de um utilizador humano, tornando possível detetar e investigar comportamentos inesperados do agente.

Por exemplo, o ID do Agente Microsoft Entra oferece esta funcionalidade ao emitir identidades dedicadas para agentes de IA que suportam modos de acesso delegados e apenas aplicações, com atribuições de funções geridas através do Azure RBAC.

Diagrama que compara modos de acesso delegado e apenas para aplicações para as identidades dos agentes de IA.

Classificação e governação de dados

A segurança eficaz dos dados em IA também requer práticas fortes de governação de dados:

  • Classifique os dados antes que a IA os aceda: Assegure que os dados acedidos pelos sistemas de IA são classificados e rotulados de acordo com o seu nível de sensibilidade. A IA só pode impor controlos de acesso existentes — se os dados não forem devidamente classificados, a IA pode revelar informações sensíveis a utilizadores não autorizados.
  • Aplicar políticas de prevenção de perda de dados (DLP): Estender as políticas DLP existentes para abranger os canais de interação de IA. Monitorize dados sensíveis que aparecem em prompts, respostas e payloads de chamadas de ferramentas de IA.
  • Aplicar políticas de retenção e eliminação: Defina durante quanto tempo os dados de interação (registos de conversas, históricos de prompts) são mantidos. Minimize a janela de exposição eliminando automaticamente os dados que já não são necessários.
  • Auditar padrões de acesso a dados: Monitorize quais dados a IA acede, quando e em nome de quem. Padrões de acesso anómalos — como um agente que consulta subitamente grandes volumes de dados fora do seu âmbito normal — podem indicar um comprometimento.