Introdução
Os controlos de segurança de IA são as medidas e protocolos implementados para proteger os sistemas de inteligência artificial contra ameaças, vulnerabilidades e acessos não autorizados. Embora os controlos de segurança tradicionais (como segurança de rede, gestão de acessos e encriptação) ainda se apliquem, os sistemas de IA requerem controlos adicionais e especializados que abordem os riscos únicos introduzidos pelas interfaces de linguagem natural, comportamento do modelo e capacidades dos agentes.
Este módulo fornece uma visão geral dos controlos de segurança que pode implementar em sistemas de IA para reforçar a postura de segurança dos ambientes de IA. Explora controle em várias áreas: segurança da cadeia de abastecimento para bibliotecas de inteligência artificial, filtragem de conteúdos, segurança de dados, elaboração de prompts de sistema, fundamentação, as melhores práticas para a segurança de aplicações e monitorização contínua.
Objetivos de aprendizagem
Ao final deste módulo, você é capaz de:
- Avaliar bibliotecas de IA open-source para riscos de segurança
- Descreva as capacidades de filtragem de conteúdos e como as configurar de forma eficaz
- Explique os princípios de segurança de dados de IA, incluindo identidade de agentes e controlo de acessos
- Projete metaprompts eficazes (prompts do sistema) como controlo de segurança
- Descreva como o grounding reduz conteúdos gerados por IA imprecisos e riscos de segurança
- Aplicar as melhores práticas de segurança de aplicações a aplicações habilitadas por IA
- Descreva estratégias de monitorização para detetar ameaças específicas de IA
Pré-requisitos
- Familiaridade com conceitos básicos de segurança (por exemplo, autenticação, controlo de acessos, encriptação)
- Familiaridade com conceitos básicos de inteligência artificial (por exemplo, modelos, treino, inferência)
- Conclusão do módulo de Fundamentos de Segurança em IA ou conhecimento equivalente