Introduktion
AI-säkerhetskontroller är de åtgärder och protokoll som implementeras för att skydda system för artificiell intelligens från hot, sårbarheter och obehörig åtkomst. Även om traditionella säkerhetskontroller (till exempel nätverkssäkerhet, åtkomsthantering och kryptering) fortfarande gäller, kräver AI-system ytterligare, specialiserade kontroller som hanterar de unika risker som introduceras av gränssnitt för naturligt språk, modellbeteende och agentfunktioner.
Den här modulen ger en översikt över de säkerhetskontroller som du kan implementera i AI-system för att stärka säkerhetsstatusen för AI-miljöer. Du utforskar kontroller inom flera områden: säkerhet i leveranskedjan för AI-bibliotek, innehållsfiltrering, datasäkerhet, systemuppdateringsdesign, grundläggning, metodtips för programsäkerhet och kontinuerlig övervakning.
Utbildningsmål
I slutet av den här modulen kan du:
- Utvärdera AI-bibliotek med öppen källkod för säkerhetsrisker
- Beskriva funktioner för innehållsfiltrering och hur du konfigurerar dem effektivt
- Förklara principer för AI-datasäkerhet, inklusive agentidentitet och åtkomstkontroll
- Utforma effektiva metaprompter (systempromptar) som en säkerhetskontroll
- Beskriva hur grundläggning minskar felaktigt AI-genererat innehåll och säkerhetsrisker
- Tillämpa metodtips för programsäkerhet på AI-aktiverade program
- Beskriva övervakningsstrategier för att identifiera AI-specifika hot
Förutsättningar
- Kunskaper om grundläggande säkerhetsbegrepp (till exempel autentisering, åtkomstkontroll, kryptering)
- Kunskaper om grundläggande begrepp inom artificiell intelligens (till exempel modeller, utbildning, slutsatsdragning)
- Slutförande av grunderna i AI-säkerhetsmodulen eller motsvarande kunskaper