AI-gegevensbeveiliging implementeren

Voltooid

Gegevensbeveiliging is cruciaal voor AI omdat AI-systemen bestaande uitdagingen versterken met gegevensclassificatie, machtigingen en governance. AI maakt gegevensdetectie eenvoudig, wat betekent dat eventuele problemen met het verwerken van gegevens worden vergroot, wat leidt tot mogelijke gegevenslekken en onbevoegde toegang. AI is niet alleen afhankelijk van gegevens, maar maakt ook nieuwe gegevens die in de loop van de tijd waarde winnen, waardoor het een doelwit is voor aanvallers. Hoewel gegevensbeveiliging geen nieuwe discipline is, maakt AI het verkrijgen van gegevensbeveiliging nog belangrijker.

Een fundamenteel principe van AI-gegevensbeveiliging is dat beslissingen voor toegangsbeheer nooit moeten worden gedevoltoteerd naar het AI-systeem. De AI mag alleen toegang hebben tot dezelfde gegevens als de gebruiker die namens hem handelt.

Schermopname van de uitdagingen van AI-governance en -beveiliging, waarin wordt getoond hoe AI bestaande problemen met betrekking tot gegevensbeveiliging versterkt.

Inzicht in het gegevenslandschap van AI-systemen

Generatieve AI-systemen communiceren met een breed scala aan gegevenstypen die allemaal beveiliging vereisen:

  • Trainingsgegevens: De gegevenssets die worden gebruikt om modellen te bouwen en af te stemmen, die eigendomsinformatie, persoonlijke gegevens of auteursrechtelijk beschermd materiaal kunnen bevatten
  • Referentiegegevens: documenten, databases en kennisbanken die de AI tijdens runtime ophaalt via technieken zoals retrieval-augmented generation (RAG)
  • Interactiegegevens: Gebruikersprompts, modelreacties, gespreksgeschiedenissen en tool-aanroep payloads die tijdens het gebruik zijn gegenereerd
  • Gegenereerde uitvoer: Samenvattingen, code, rapporten en andere artefacten die door de AI worden gemaakt, waardoor informatie uit meerdere gevoelige bronnen kan worden gecombineerd

Elk gegevenstype heeft verschillende beveiligingsvereisten, toegangspatronen en gevolgen voor regelgeving. Een uitgebreide STRATEGIE voor AI-gegevensbeveiliging heeft betrekking op al deze strategieën.

Schermopname van de typen gegevens die worden gebruikt door generatieve AI, met verbruikte, gemaakte en geopende gegevenscategorieën.

Toegangsbeheer implementeren met agentidentiteiten

Het principe dat AI alleen toegang moet krijgen tot dezelfde gegevens als de gebruiker die namens de AI fungeert, is eenvoudig te vermelden, maar het implementeren ervan vereist doelgericht identiteitsbeheer. Agent-identiteitsframeworks bieden gestandaardiseerde manieren om AI-agents te beheren, verifiëren en autoriseren.

Agent-identiteitsframeworks ondersteunen doorgaans twee verificatiemodi:

  • Gedelegeerde toegang (namens de gebruiker): de agent werkt onder de identiteit van de aangemelde gebruiker met behulp van een on-behalf-of-flow. De agent neemt alleen de machtigingen over waarvoor de gebruiker toestemming heeft gegeven en is gemachtigd voor. Dit dwingt rechtstreeks het principe af dat de AI geen toegang heeft tot gegevens waartoe de gebruiker geen toegang heeft.
  • Alleen toegang tot toepassingen: de agent fungeert onder een eigen toegewezen identiteit, die wordt beheerd door de eigen roltoewijzingen. Deze modus wordt gebruikt voor achtergrond- of onbeheerde werkstromen waarbij geen gebruiker betrokken is.

Wanneer u een agent maakt op een modern AI-platform, kan de service automatisch een agentidentiteit inrichten. Beheerders wijzen vervolgens rollen toe aan die identiteit met behulp van op rollen gebaseerd toegangsbeheer (RBAC), waarbij toegang met minimale bevoegdheden op agentniveau wordt toegepast, gescheiden van de machtigingen van de menselijke ontwikkelaars die deze hebben gebouwd.

Deze scheiding is belangrijk voor controlebaarheid: bewerkingen die door de AI-agent worden uitgevoerd, worden weergegeven in logboeken onder de identiteit van de agent, niet in het account van een menselijke gebruiker, waardoor onverwacht agentgedrag kan worden gedetecteerd en onderzocht.

Microsoft Entra Agent-ID biedt deze mogelijkheid bijvoorbeeld door toegewezen identiteiten uit te geven voor AI-agents die zowel gedelegeerde als alleen toepassingstoegangsmodi ondersteunen, met roltoewijzingen die worden beheerd via Azure RBAC.

Diagram waarbij gedelegeerde en alleen toepassingstoegangsmodi voor AI-agentidentiteiten worden vergeleken.

Gegevensclassificatie en -governance

Effectieve AI-gegevensbeveiliging vereist ook sterke procedures voor gegevensbeheer:

  • Gegevens classificeren voordat AI er toegang toe krijgt: Zorg ervoor dat gegevens die worden geopend door AI-systemen worden geclassificeerd en gelabeld op basis van het gevoeligheidsniveau. AI kan alleen besturingselementen voor toegang afdwingen die bestaan. Als gegevens niet goed zijn geclassificeerd, kan de AI gevoelige informatie aan onbevoegde gebruikers blootstellen.
  • Beleid voor preventie van gegevensverlies (DLP) toepassen: breid bestaand DLP-beleid uit om AI-interactiekanalen te dekken. Monitor op gevoelige gegevens die voorkomen in AI-prompts, antwoorden en hulpprogramma-aanroepen.
  • Bewaar- en verwijderingsbeleid afdwingen: definieer hoe lang interactiegegevens (gesprekslogboeken, promptgeschiedenissen) worden bewaard. Minimaliseer het blootstellingsvenster door gegevens die niet meer nodig zijn, automatisch op te lossen.
  • Patronen voor gegevenstoegang controleren: controleer welke gegevens de AI opent, wanneer en namens wie. Afwijkende toegangspatronen, zoals een agent die plotseling een query uitvoert op grote hoeveelheden gegevens buiten het normale bereik, kan duiden op een inbreuk.