Implementera AI-datasäkerhet
Datasäkerhet är avgörande för AI eftersom AI-system förstärker befintliga utmaningar med dataklassificering, behörigheter och styrning. AI gör dataidentifiering enkelt, vilket innebär att eventuella problem med datahantering förstoras och introducerar en risk för dataläckage och obehörig åtkomst. AI förlitar sig inte bara på data utan skapar också nya data som ökar värdet över tid, vilket gör det till ett mål för angripare. Även om datasäkerhet inte är ett nytt område gör AI att datasäkerheten blir ännu mer kritisk.
En grundläggande princip för AI-datasäkerhet är att beslut om åtkomstkontroll aldrig ska överlåtas till AI-systemet. AI:n ska bara ha åtkomst till samma data som användaren som den agerar för.
Förstå datalandskapet i AI-system
Generativa AI-system interagerar med en mängd olika datatyper som alla kräver skydd:
- Träningsdata: De datauppsättningar som används för att skapa och finjustera modeller, som kan innehålla upphovsrättsskyddad information, personuppgifter eller upphovsrättsskyddat material
- Grunddata: Dokument, databaser och kunskapsbaser som AI:n hämtar vid körning via tekniker som hämtning av utökad generering (RAG)
- Interaktionsdata: Användarfrågor, modellsvar, konversationshistorik och nyttolaster för verktygsanrop som genereras under användning
- Genererade utdata: Sammanfattningar, kod, rapporter och andra artefakter som AI:n skapar, som kan kombinera information från flera känsliga källor
Varje datatyp har olika säkerhetskrav, åtkomstmönster och regelmässiga konsekvenser. En omfattande AI-datasäkerhetsstrategi hanterar dem alla.
Implementera åtkomstkontroll med agentidentiteter
Principen att AI endast ska komma åt samma data som användaren som den agerar för är enkel att ange, men för att implementera den krävs en specialbyggd identitetshantering. Agentidentitetsramverk ger standardiserade sätt att styra, autentisera och auktorisera AI-agenter.
Agentidentitetsramverk stöder vanligtvis två autentiseringslägen:
- Delegerad åtkomst (för användarens räkning): Agenten fungerar under den inloggade användarens identitet med hjälp av ett flöde för användarens räkning. Agenten ärver endast de behörigheter som användaren har samtyckt till och har behörighet för. Detta tillämpar direkt principen att AI:n inte kan komma åt data som användaren inte kan komma åt.
- Åtkomst endast för program: Agenten agerar under sin egen dedikerade identitet och styrs av sina egna rolltilldelningar. Det här läget används för bakgrunds- eller obevakade arbetsflöden där ingen användare är inblandad.
När du skapar en agent på en modern AI-plattform kan tjänsten automatiskt etablera en agentidentitet. Administratörer tilldelar sedan roller till den identiteten med hjälp av rollbaserad åtkomstkontroll (RBAC) och tillämpar åtkomst med minst behörighet på agentnivå – separat från behörigheterna för de mänskliga utvecklare som skapade den.
Den här separationen är viktig för granskning: åtgärder som utförs av AI-agenten visas i loggar under agentens identitet, inte en mänsklig användares konto, vilket gör det möjligt att identifiera och undersöka oväntat agentbeteende.
Till exempel tillhandahåller Microsoft Entra agent-ID den här funktionen genom att utfärda dedikerade identiteter för AI-agenter som stöder både delegerade och endast programbaserade åtkomstlägen, med rolltilldelningar som hanteras via Azure RBAC.
Dataklassificering och styrning
Effektiv AI-datasäkerhet kräver också starka metoder för datastyrning:
- Klassificera data innan AI kommer åt dem: Se till att data som nås av AI-system klassificeras och märks enligt känslighetsnivån. AI kan bara framtvinga åtkomstkontroller som finns – om data inte är korrekt klassificerade kan AI:n visa känslig information för obehöriga användare.
- Tillämpa principer för dataförlustskydd (DLP): Utöka befintliga DLP-principer för att täcka AI-interaktionskanaler. Övervaka känsliga data som visas i AI-prompter, svar och verktygsanropsnyttolaster.
- Framtvinga kvarhållnings- och borttagningsprinciper: Definiera hur länge interaktionsdata (konversationsloggar, prompthistorik) ska behållas. Minimera exponeringsfönstret genom att automatiskt rensa data som inte längre behövs.
- Granska dataåtkomstmönster: Övervaka vilken data AI:n har tillgång till, när och på vems vägnar. Avvikande åtkomstmönster , till exempel en agent som plötsligt kör frågor mot stora mängder data utanför sitt normala omfång, kan tyda på en kompromiss.