Présentation

Effectué

Vous avez découvert les types d’attaques qui ciblent des systèmes IA et les contrôles de sécurité que vous pouvez mettre en place pour les protéger. Toutefois, savoir que les vulnérabilités existent et savoir comment les trouver avant que les attaquants ne le fassent sont deux compétences différentes. C’est là que les tests de sécurité de l'IA entrent en jeu.

Les tests de sécurité de l'IA, en particulier le red teaming de l'IA, sont le processus de mise à l'épreuve des systèmes d'IA avec des techniques adversariales pour découvrir les vulnérabilités avant qu'on ne puisse les exploiter. Il s’agit d’une pratique requise dans n’importe quel cycle de vie de développement d’IA responsable, et cela diffère des tests d’intrusion traditionnels de façons importantes pour votre planification et votre exécution.

Dans ce module, vous allez découvrir ce que l’association rouge d’IA est et pourquoi elle diffère des tests de sécurité traditionnels, les trois catégories d’association rouge d’IA utilisées dans la pratique et comment planifier un exercice d’association rouge pour une application compatible LLM ou IA dans votre organisation.

Objectifs d’apprentissage

À la fin de ce module, vous pouvez :

  • Décrivez ce qu'est le red teaming d'IA et en quoi il diffère du red teaming de sécurité traditionnelle.
  • Identifier les trois catégories de red teaming appliqué à l’IA et les compétences requises pour chacune
  • Planifier un exercice de red teaming appliqué à l’IA, y compris la composition de l’équipe et la méthodologie de test
  • Décrire comment les outils automatisés de red teaming complètent les tests manuels

Prerequisites

Pour tirer le maximum d’enseignements de ce module, vous devez posséder des connaissances et de l’expérience dans les domaines suivants :

  • Concepts de sécurité fondamentaux (par exemple, authentification, contrôle d’accès, chiffrement)
  • Concepts fondamentaux de l’IA (par exemple, modèles, entraînement, inférence)
  • Les types d’attaques PAR IA couverts dans le module Notions de base de la sécurité de l’IA
  • Contrôles de sécurité IA couverts dans les contrôles de sécurité IA du module