Inledning

Slutförd

Du har lärt dig om de typer av attacker som riktas mot AI-system och de säkerhetskontroller som du kan använda för att skydda dem. Men att veta att det finns sårbarheter och veta hur man hittar dem innan angripare gör det är två olika färdigheter. Det är där AI-säkerhetstestning kommer in.

AI-säkerhetstester – särskilt AI-red teaming – är processen att avsöka AI-system med adversariella tekniker för att upptäcka sårbarheter innan de kan utnyttjas. Det är en nödvändig metod i alla ansvarsfulla AI-utvecklingslivscykler, och det fungerar annorlunda än traditionella intrångstester på sätt som är viktiga för hur du planerar och kör det.

I den här modulen får du lära dig vad ai-röd teamindelning är och varför den skiljer sig från traditionell säkerhetstestning, de tre kategorierna av AI-röd teamindelning som används i praktiken och hur du planerar en röd teamindelningsövning för ett LLM- eller AI-aktiverat program i din organisation.

Utbildningsmål

I slutet av den här modulen kan du:

  • Beskriva vad ai-röd teamindelning är och hur det skiljer sig från traditionell säkerhetsröd teamindelning
  • Identifiera de tre kategorierna av AI-röd teamindelning och de färdigheter som var och en kräver
  • Planera en AI-red team-övning, inklusive teamsammansättning och testmetodik
  • Beskriva hur automatiserade röda teamindelningsverktyg kompletterar manuell testning

Förutsättningar

För att få den bästa inlärningsupplevelsen från den här modulen bör du ha kunskap och erfarenhet av:

  • Grundläggande säkerhetsbegrepp (till exempel autentisering, åtkomstkontroll, kryptering)
  • Grundläggande AI-begrepp (till exempel modeller, utbildning, slutsatsdragning)
  • De typer av AI-attacker som beskrivs i modulen Grunderna för AI-säkerhet
  • AI-säkerhetskontrollerna som beskrivs i modulen AI-säkerhetskontroller