Introduction

Concluído

Aprendeu sobre os tipos de ataques que visam sistemas de IA e os controlos de segurança que pode implementar para os proteger. No entanto, saber que as vulnerabilidades existem e saber como as encontrar antes dos atacantes são duas competências diferentes. É aqui que entra o teste de segurança por IA.

Os testes de segurança de IA — especificamente o red teaming de IA — são o processo de sondar sistemas de IA com técnicas adversariais para descobrir vulnerabilidades antes que possam ser exploradas. É uma prática obrigatória em qualquer ciclo de vida responsável de desenvolvimento de IA, e funciona de forma diferente dos testes de penetração tradicionais nas formas que influenciam a forma como o planeia e executa.

Neste módulo, aprende o que é o red teaming de IA e por que difere dos testes tradicionais de segurança, as três categorias de red teaming de IA usadas na prática, e como planear um exercício de red teaming para um LLM ou aplicação com IA na sua organização.

Objetivos de aprendizagem

Ao final deste módulo, você é capaz de:

  • Descreva o que é o red teaming de IA e em que difere do red teaming tradicional de segurança
  • Identifique as três categorias de equipas de ataque de IA e as competências que cada uma requer
  • Planeie um exercício de red teaming com IA, incluindo composição da equipa e metodologia de testes
  • Descreva como as ferramentas automatizadas de red teaming complementam os testes manuais

Pré-requisitos

Para obter a melhor experiência de aprendizagem deste módulo, você deve ter conhecimento e experiência de:

  • Conceitos fundamentais de segurança (por exemplo, autenticação, controlo de acessos, encriptação)
  • Conceitos fundamentais de IA (por exemplo, modelos, treino, inferência)
  • Os tipos de ataques de IA abordados no módulo Fundamentos da segurança da IA
  • Os controlos de segurança de IA abrangidos no módulo controlos de segurança de IA