Introdução
Os controles de segurança de IA são as medidas e protocolos implementados para proteger sistemas de inteligência artificial contra ameaças, vulnerabilidades e acesso não autorizado. Embora os controles de segurança tradicionais (como segurança de rede, gerenciamento de acesso e criptografia) ainda se apliquem, os sistemas de IA exigem controles adicionais especializados que abordam os riscos exclusivos introduzidos por interfaces de linguagem natural, comportamento de modelo e recursos de agente.
Este módulo fornece uma visão geral dos controles de segurança que você pode implementar em sistemas de IA para fortalecer a postura de segurança dos ambientes de IA. Você explora controles em várias áreas: segurança da cadeia de suprimentos para bibliotecas de IA, filtragem de conteúdo, segurança de dados, design de prompts do sistema, fundamentos, práticas recomendadas de segurança de aplicativos e monitoramento contínuo.
Objetivos do aprendizado
Ao final deste módulo, você será capaz de fazer o seguinte:
- Avaliar bibliotecas de IA de software livre para riscos de segurança
- Descrever os recursos de filtragem de conteúdo e como configurá-los efetivamente
- Explicar os princípios de segurança de dados de IA, incluindo a identidade do agente e o controle de acesso
- Criar metaprompts eficazes (prompts do sistema) como um controle de segurança
- Descrever como o referenciamento reduz os conteúdos gerados por IA imprecisos e os riscos de segurança
- Aplicar as práticas recomendadas de segurança do aplicativo a aplicativos habilitados para IA
- Descrever estratégias de monitoramento para detectar ameaças específicas à IA
Pré-requisitos
- Familiaridade com conceitos básicos de segurança (por exemplo, autenticação, controle de acesso, criptografia)
- Familiaridade com conceitos básicos de inteligência artificial (por exemplo, modelos, treinamento, inferência)
- Conclusão dos conceitos básicos do módulo de segurança de IA ou conhecimento equivalente