Deze browser wordt niet meer ondersteund.
Upgrade naar Microsoft Edge om te profiteren van de nieuwste functies, beveiligingsupdates en technische ondersteuning.
Kies het beste antwoord op elke vraag.
Welke stappen kunt u uitvoeren om de gegevensbeveiliging van een AI-toepassing te verbeteren?
Zorg ervoor dat het AI-systeem alleen toegang heeft tot gegevens waarvan de gebruiker namens wie het werkt, gemachtigd is om te zien
Uw AI-toepassing geïsoleerd houden van de rest van uw IT-omgeving
Uw ai-toepassing on-premises uitvoeren in plaats van in de cloud
Welk type AI-beveiligingsprobleem helpt een metaprompt (systeemprompt) te beperken?
Modelvergiftiging
Jailbreaks en het genereren van schadelijke inhoud
Denial of Service-aanvallen op netwerkniveau
U wilt voorkomen dat uw AI-toepassing schadelijke inhoud retourneert. Wat moet u implementeren?
Alleen metaprompts
Inhoudsveiligheidsfilters als onderdeel van een diepgaande verdedigingsbenadering
Best practices voor toepassingsbeveiliging alleen
Waarom is aarding een belangrijke beveiligingscontrole voor AI-systemen?
Het voorkomt alle soorten promptinjectieaanvallen
Het vermindert geconstrueerde output door antwoorden te beperken tot geverifieerde gegevensbronnen.
Hiermee worden de trainingsgegevens van het model versleuteld
Wat is een AI-specifiek risico voor de toeleveringsketen bij de adoptie van opensource AI-bibliotheken?
Opensource-licenties zijn altijd niet compatibel met commercieel gebruik
Vooraf getrainde modellen in bibliotheken kunnen backdoors of bevooroordeeld gedrag bevatten dat moeilijk te detecteren is via codebeoordeling.
Opensource AI-bibliotheken kunnen na de implementatie niet worden bijgewerkt
U moet alle vragen beantwoorden voordat uw werk kan worden gecontroleerd.
Is deze pagina nuttig?
Hulp nodig bij dit onderwerp?
Wilt u Ask Learn gebruiken om iets te verduidelijken of u door dit onderwerp te leiden?