Introduzione
L'IA introduce molte funzionalità nuove ed interessanti, ma comporta anche nuovi rischi per la sicurezza. Le interfacce del linguaggio naturale, il comportamento non deterministico e le pipeline di dati complesse che rendono potenti i sistemi di intelligenza artificiale espandono anche la superficie di attacco in modi in cui i controlli di cybersecurity tradizionali non rispondono completamente.
In questo modulo si apprenderà come la sicurezza dell'intelligenza artificiale differisce dalla sicurezza informatica tradizionale, esplorare il modello di architettura dell'intelligenza artificiale a tre livelli ed esaminare le tecniche di attacco più significative specifiche dell'IA, tra cui il jailbreak, l'inserimento di richieste, la manipolazione del modello, l'esfiltrazione dei dati e l'eccessiva dipendenza. Per ogni tipo di attacco si apprenderà anche le strategie di mitigazione usate dalle organizzazioni per ridurre i rischi.
Obiettivi di apprendimento
Alla fine di questo modulo, sarai in grado di:
- Descrivere in che modo la sicurezza dell'intelligenza artificiale differisce dalla sicurezza informatica tradizionale
- Identificare i tre livelli dell'architettura di intelligenza artificiale e i problemi di sicurezza a ogni livello
- Spiegare tecniche di attacco specifiche dell'intelligenza artificiale, tra cui lo sblocco, l'iniezione di prompt, la manipolazione del modello, l'esfiltrazione dei dati e l'eccessiva dipendenza.
- Descrivere le strategie di mitigazione per ogni tipo di attacco
Prerequisiti
- Familiarità con i concetti di sicurezza di base (ad esempio, autenticazione, controllo di accesso, crittografia)
- Familiarità con i concetti di base dell'intelligenza artificiale (ad esempio, modelli, training, inferenza)