Introducción
La inteligencia artificial presenta muchas funcionalidades nuevas y emocionantes, pero también aporta nuevos riesgos de seguridad. Las interfaces de lenguaje natural, el comportamiento no determinista y las canalizaciones de datos complejas que hacen que los sistemas de inteligencia artificial sean eficaces también expandan la superficie expuesta a ataques de maneras que los controles tradicionales de ciberseguridad no abordan por completo.
En este módulo, aprenderá cómo la seguridad de la inteligencia artificial difiere de la ciberseguridad tradicional, explorará el modelo de arquitectura de inteligencia artificial de tres niveles y examinará las técnicas de ataque más importantes específicas de la inteligencia artificial, como el jailbreaking, la inyección de mensajes, la manipulación del modelo, la filtración de datos y la dependencia excesiva. Para cada tipo de ataque, también obtendrá información sobre las estrategias de mitigación que usan las organizaciones para reducir el riesgo.
Objetivos de aprendizaje
Al finalizar este módulo, podrá hacer lo siguiente:
- Describir cómo difiere la seguridad de la inteligencia artificial de la ciberseguridad tradicional
- Identificar las tres capas de arquitectura de inteligencia artificial y los problemas de seguridad en cada capa
- Explicar las técnicas de ataque específicas de la inteligencia artificial, como el jailbreak, la inyección de mensajes, la manipulación del modelo, la filtración de datos y la dependencia excesiva
- Describir las estrategias de mitigación para cada tipo de ataque
Requisitos previos
- Conocimientos básicos de los conceptos de seguridad (por ejemplo, autenticación, control de acceso, cifrado)
- Familiaridad con conceptos básicos de inteligencia artificial (por ejemplo, modelos, entrenamiento, inferencia)