Introduction

Voltooid

U hebt geleerd over de typen aanvallen die gericht zijn op AI-systemen en de beveiligingscontroles die u kunt instellen om ze te beveiligen. Maar weten dat er beveiligingsproblemen bestaan en weten hoe ze kunnen worden gevonden voordat aanvallers twee verschillende vaardigheden hebben. Dat is waar AI-beveiligingstests binnenkomen.

AI-beveiligingstests, met name AI red-teaming, is het proces van het testen van AI-systemen met adversarial technieken om beveiligingsproblemen te detecteren voordat ze kunnen worden misbruikt. Het is een vereiste praktijk in elke verantwoorde LEVENSCYCLUS van AI-ontwikkeling en werkt anders dan traditionele penetratietests op manieren die van belang zijn voor de manier waarop u deze plant en uitvoert.

In deze module leert u wat ai-rode koppeling is en waarom deze verschilt van traditionele beveiligingstests, de drie categorieën AI-rode koppeling die in de praktijk worden gebruikt en hoe u een rode teamoefening plant voor een LLM- of AI-toepassing in uw organisatie.

Doelstellingen voor leren

Aan het einde van deze module kunt u het volgende doen:

  • Beschrijven wat AI-rode koppeling is en hoe deze verschilt van traditionele rode beveiligingskoppeling
  • Identificeer de drie categorieën van AI-red teaming en de vaardigheden die voor elk vereist zijn
  • Plan een AI red teaming-oefening, inclusief teamsamenstelling en testmethodologie
  • Beschrijving van hoe geautomatiseerde red teaming-tools een aanvulling vormen op handmatig testen

Prerequisites

Als u de beste leerervaring van deze module wilt krijgen, moet u kennis en ervaring hebben van:

  • Fundamentele beveiligingsconcepten (bijvoorbeeld verificatie, toegangsbeheer, versleuteling)
  • Fundamentele AI-concepten (bijvoorbeeld modellen, training, deductie)
  • De typen AI-aanvallen die worden behandeld in de module Basisprincipes van AI-beveiliging
  • De AI-beveiligingscontroles die worden behandeld in de module AI-beveiligingscontroles