Implemente a segurança de dados de IA
A segurança dos dados é crucial para a IA porque os sistemas de IA amplificam os desafios existentes na classificação de dados, permissões e governação. A IA facilita a descoberta de dados — o que significa que quaisquer problemas no manuseamento dos dados são agravados, levando a potenciais fugas de dados e acesso não autorizado. A IA não só depende dos dados, como também cria novos dados que ganham valor ao longo do tempo, tornando-se um alvo para os atacantes. Embora a segurança de dados não seja uma disciplina nova, a IA torna a gestão correta da segurança dos dados ainda mais crítica.
Um princípio fundamental da segurança dos dados de IA é que as decisões de controlo de acessos nunca devem ser transferidas para o sistema de IA. A IA só deve ter acesso aos mesmos dados que o utilizador em nome do qual atua.
Compreenda o panorama de dados dos sistemas de IA
Os sistemas de IA generativa interagem com uma vasta gama de tipos de dados que requerem proteção:
- Dados de treino: Os conjuntos de dados usados para construir e afinar modelos, que podem conter informação proprietária, dados pessoais ou material protegido por direitos de autor
- Dados de suporte: Documentos, bases de dados e bases de conhecimento que a IA recupera em tempo de execução através de técnicas como a geração aumentada através de recuperação (RAG)
- Dados de interação: Prompts do utilizador, respostas do modelo, históricos de conversas e payloads de chamadas de ferramenta gerados durante a utilização
- Resultados gerados: Resumos, código, relatórios e outros artefactos criados pela IA, que podem combinar informação de múltiplas fontes sensíveis
Cada tipo de dado tem requisitos de segurança, padrões de acesso e implicações regulatórias diferentes. Uma estratégia abrangente de segurança de dados em IA aborda todos eles.
Implementar controlo de acesso com identidades de agentes
O princípio de que a IA deve aceder apenas aos mesmos dados que o utilizador em nome do qual atua é simples de afirmar, mas implementá-lo requer uma gestão de identidade construída para esse propósito. Os quadros de identidade de agentes fornecem formas padronizadas de governar, autenticar e autorizar agentes de IA.
Os frameworks de identidade de agente normalmente suportam dois modos de autenticação:
- Acesso delegado (em nome do utilizador): O agente opera sob a identidade do utilizador iniciado usando um fluxo em nome do utilizador. O agente herda apenas as permissões a que o utilizador consentiu e está autorizado. Isto reforça diretamente o princípio de que a IA não pode aceder a dados que o utilizador não consegue aceder.
- Acesso apenas por aplicação: O agente atua sob a sua própria identidade dedicada, regida pelas suas próprias atribuições de funções. Este modo é usado para fluxos de trabalho em segundo plano ou não acompanhados, onde não há utilizador envolvido.
Quando cria um agente numa plataforma moderna de IA, o serviço pode automaticamente criar uma identidade de agente. Os administradores atribuem então funções a essa identidade usando controlo de acesso baseado em papéis (RBAC), aplicando o acesso de privilégio mínimo ao nível do agente — separado das permissões dos programadores humanos que o construíram.
Esta separação é importante para a auditabilidade: as operações realizadas pelo agente de IA aparecem nos registos sob a identidade do agente, não na conta de um utilizador humano, tornando possível detetar e investigar comportamentos inesperados do agente.
Por exemplo, o ID do Agente Microsoft Entra oferece esta funcionalidade ao emitir identidades dedicadas para agentes de IA que suportam modos de acesso delegados e apenas aplicações, com atribuições de funções geridas através do Azure RBAC.
Classificação e governação de dados
A segurança eficaz dos dados em IA também requer práticas fortes de governação de dados:
- Classifique os dados antes que a IA os aceda: Assegure que os dados acedidos pelos sistemas de IA são classificados e rotulados de acordo com o seu nível de sensibilidade. A IA só pode impor controlos de acesso existentes — se os dados não forem devidamente classificados, a IA pode revelar informações sensíveis a utilizadores não autorizados.
- Aplicar políticas de prevenção de perda de dados (DLP): Estender as políticas DLP existentes para abranger os canais de interação de IA. Monitorize dados sensíveis que aparecem em prompts, respostas e payloads de chamadas de ferramentas de IA.
- Aplicar políticas de retenção e eliminação: Defina durante quanto tempo os dados de interação (registos de conversas, históricos de prompts) são mantidos. Minimize a janela de exposição eliminando automaticamente os dados que já não são necessários.
- Auditar padrões de acesso a dados: Monitorize quais dados a IA acede, quando e em nome de quem. Padrões de acesso anómalos — como um agente que consulta subitamente grandes volumes de dados fora do seu âmbito normal — podem indicar um comprometimento.