Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Este artigo fornece recomendações de segurança para organizações que executam cargas de trabalho de IA no Azure. As diretrizes se concentram em soluções paaS (plataforma como serviço) de IA Azure. Você deve proteger os recursos de IA contra ameaças para manter a integridade e a conformidade dos dados. Use linhas de base de segurança e estruturas bem arquitetas para proteger sua infraestrutura de IA contra vulnerabilidades.
Proteger recursos de IA
Para proteger recursos de IA, aplique linhas de base de segurança e práticas recomendadas para proteger a infraestrutura que dá suporte a cargas de trabalho de IA em Azure. Essas medidas reduzem os riscos de ameaças externas e garantem a segurança consistente em toda a sua organização. Aplique controles de segurança padronizados para manter uma proteção robusta. Veja como:
Aplique as linhas de base de segurança do Azure a todos os recursos de IA. Linhas de base de segurança do Azure fornecem controles de segurança padronizados que abordam vulnerabilidades comuns em plataformas de IA. Essas linhas de base garantem a proteção consistente e reduzem os erros de configuração que podem expor sua infraestrutura. Use as linhas de base de segurança do Azure para cada plataforma de inteligência artificial que você implantar.
Siga as diretrizes de segurança do Azure Well-Architected Framework. O Azure Well-Architected Framework fornece recomendações de segurança específicas do serviço que complementam os controles de linha de base. Essas diretrizes abordam considerações de segurança exclusivas para cada serviço de IA e ajudam a otimizar sua postura de segurança. Examine e implemente as recomendações de segurança em guias de serviço Azure para suas plataformas de IA.
Modelos de IA seguros
A segurança do modelo de IA protege contra ameaças, como ataques de prompt injection e manipulação do modelo de IA, que podem comprometer a integridade do sistema. A proteção de modelos garante saídas confiáveis e mantém a confiança organizacional. Implemente uma proteção de modelo abrangente para evitar a exploração mal-intencionada e mantenha a confiabilidade do serviço. Veja como:
Habilite a proteção contra ameaças para todos os modelos de IA. Microsoft Defender para Nuvem monitora continuamente e detecta ameaças emergentes antes que elas comprometam sua infraestrutura de IA. Essa proteção garante uma cobertura de segurança consistente em todas as cargas de trabalho de IA e reduz o tempo de resposta para ataques. Implante Microsoft Defender para Nuvem AI para proteção contra ameaças e monitore ataques de injeção de prompt, manipulação de modelo e outras ameaças específicas de IA.
Monitore as saídas e aplique a blindagem de prompt. Monitore as saídas para detectar respostas mal-intencionadas ou imprevisíveis que podem indicar ataques bem-sucedidos contra seus modelos de IA. Use a blindagem de prompt para bloquear entradas de usuário prejudiciais e evitar respostas inadequadas. Implemente o Prompt Shields para verificar as entradas do usuário em busca de padrões de ataque e examine regularmente as saídas do modelo em busca de sinais de comprometimento ou manipulação.
Verifique a autenticidade e a integridade do modelo. Verifique os modelos para garantir que apenas modelos de IA legítimos e seguros operem em seu ambiente. Esse processo impede que modelos não autorizados ou adulterados comprometam sua infraestrutura e mantém a confiança nas saídas de IA. Estabeleça etapas de verificação para verificar assinaturas de modelo, validar a autenticidade da origem e confirmar a integridade do modelo antes da implantação. Preste atenção especial aos modelos de software livre.
Implante um gateway de IA para segurança centralizada. Use um gateway de IA para centralizar o controle de tráfego e impor políticas de segurança consistentes em todas as cargas de trabalho de IA. Esse método simplifica o gerenciamento de segurança e garante padrões uniformes de proteção. Use Gerenciamento de API do Azure como um gateway de IA para impor políticas de autenticação, controlar o fluxo de tráfego e monitorar o uso da API. Configure a identidade gerenciada do gateway com acesso com privilégios mínimos e integre com o Microsoft Entra ID para autenticação centralizada.
Proteger acesso à IA
Os controles de acesso à IA restringem o uso de recursos a usuários autorizados por meio de autenticação e autorização. O gerenciamento de acesso impede interações não autorizadas com modelos de IA e protege dados confidenciais. Implemente controles de acesso abrangentes para manter a conformidade de segurança e reduzir os riscos de violação. Veja como:
Use Microsoft Entra ID para autenticação em vez de chaves de API. Microsoft Entra ID fornece gerenciamento de identidade centralizado e recursos de segurança avançados que não têm chaves de API estáticas. O uso de Entra ID elimina a sobrecarga de gerenciamento de credenciais e reduz vulnerabilidades de chaves comprometidas. Substitua as chaves de API pela autenticação Microsoft Entra ID para Foundry, Azure OpenAI e Foundry Tools. Se as chaves forem necessárias, roteie regularmente as chaves e realize auditorias de acesso.
Manter um inventário de agentes de IA. Mantenha um inventário preciso de identidades de agente de IA para dar suporte ao gerenciamento de acesso e à imposição de políticas. Esse inventário impede implantações de IA de sombra e garante que todos os agentes sigam os padrões de segurança. Use ID do agente Microsoft Entra para exibir todos os agentes de IA criados por meio do Foundry e Copilot Studio.
Configure a autenticação multifator e o acesso privilegiado. Habilite a autenticação multifator para adicionar uma camada de segurança que protege contra comprometimento de credenciais. Use controles de acesso privilegiado para limitar a exposição administrativa e reduzir superfícies de ataque. Habilite autenticação multifator para todos os usuários e implemente Gerenciamento de Identidade com Privilégios para contas administrativas para fornecer acesso just-in-time.
Implementar políticas de Acesso Condicional. As políticas de Acesso Condicional fornecem segurança adaptável que responde a indicadores de risco e contexto. Essas políticas impedem o acesso não autorizado e mantêm a produtividade do usuário por meio de decisões de acesso inteligente. Configure políticas de Acesso Condicional baseadas em risco para exigir verificação adicional para atividade de entrada incomum, restringir o acesso por localização geográfica e garantir que apenas dispositivos compatíveis acessem recursos de IA.
Aplicar princípios de acesso de privilégios mínimos. Aplique acesso de privilégio mínimo para minimizar a exposição à segurança concedendo apenas permissões necessárias para cada função. Essa abordagem reduz o impacto das violações e impede o acesso a recursos não autorizados. Utilize o controle de acesso baseado em função do Azure para atribuir permissões a partir das responsabilidades de trabalho e revisar frequentemente o acesso para evitar o escalonamento de privilégios.
Assegurar a comunicação entre serviços. Use a autenticação serviço a serviço para eliminar a complexidade do gerenciamento de credenciais e fornecer canais de comunicação seguros. Esse método reduz os riscos de segurança das credenciais armazenadas e simplifica o gerenciamento de acesso. Use identidade gerenciada para autenticar serviços Azure sem gerenciar credenciais.
Controlar o acesso externo aos endpoints de IA. Controlar o acesso externo para garantir que somente clientes autorizados interajam com modelos de IA. O monitoramento abrangente impede o uso não autorizado do modelo e mantém a disponibilidade do serviço. Exigir autenticação com Microsoft Entra ID para os pontos de extremidade do modelo de IA. Considere Gerenciamento de API do Azure como um gateway de IA para impor políticas de acesso e monitorar padrões de uso.
Use o Centro de Gerenciamento do Foundry para a governança. Use o gerenciamento centralizado para fornecer controles de acesso consistentes e governança de recursos em sua infraestrutura de IA. A centralização garante a conformidade com os padrões organizacionais e simplifica a administração. Use o centro de gerenciamento para controlar o acesso aos recursos de IA, gerenciar cotas e impor políticas de governança.
Proteger os dados de IA
Para proteger dados de IA, implemente limites de dados e controles de acesso para evitar violações de conformidade e violações de privacidade. Aplique uma governança de dados estrita para garantir que cada aplicativo de IA processe somente os conjuntos de dados apropriados. Veja como:
Defina limites de dados com base nos níveis de acesso do usuário. Defina limites de dados para separar tipos de informações com base em permissões de usuário e escopo do aplicativo. Essa separação impede que aplicativos de IA exponham dados confidenciais a usuários não autorizados. Crie conjuntos de dados distintos para aplicativos voltados para funcionários (dados internos), aplicativos voltados para o cliente (dados do cliente) e aplicativos voltados para o público (somente dados públicos).
Implemente o isolamento do conjunto de dados para diferentes aplicativos de IA. Isole os conjuntos de dados para que cada carga de trabalho de IA opere em seu ambiente de dados designado sem contaminação cruzada. Esse isolamento reduz os riscos de vazamento de dados entre aplicativos com requisitos de segurança diferentes. Use contas de armazenamento, bancos de dados ou data lakes separados do Azure para diferentes aplicativos de IA. Configure controles de acesso para impedir o acesso não autorizado a conjuntos de dados cruzados.
Configure controles de acesso a dados baseados em função. Configure controles baseados em função para garantir que usuários e aplicativos acessem apenas os dados apropriados para seu nível de função e liberação. Essa abordagem reduz os riscos de escalonamento de privilégios e a exposição de dados não autorizados. Implemente Azure políticas rbac que alinham permissões de acesso a dados com funções de usuário e requisitos de aplicativo.
Use Microsoft Purview para governança de dados. Use Microsoft Purview para descoberta centralizada de dados, classificação e gerenciamento de conformidade em seu ecossistema de IA. O Purview mantém a visibilidade do uso de dados e garante a conformidade com as políticas organizacionais. Implante Microsoft Purview for Foundry e AI agents para monitorar a linhagem de dados, classificar informações confidenciais e impor políticas de governança de dados.
Proteger a execução de IA
A segurança de execução de IA protege contra a execução de código mal-intencionado quando agentes de IA executam operações solicitadas pelo usuário ou processos autônomos. Esses controles impedem o comprometimento do sistema e mantêm a estabilidade da infraestrutura. Implemente controles de execução abrangentes para proteger contra ataques de injeção de código e esgotamento de recursos. Veja como:
Isolar ambientes de execução de IA. Isole os ambientes de execução para que cada execução de código opere em um espaço controlado e não possa afetar outros componentes do sistema. Esse isolamento impede que o código mal-intencionado comprometa os sistemas de host ou acesse recursos não autorizados. Use Dynamic Sessions no Aplicativos de Contêiner do Azure para criar ambientes novos e isolados para cada execução. Destrua esses ambientes automaticamente após a conclusão.
Examine e aprove o código de execução. Examine e aprove o código de execução para identificar vulnerabilidades de segurança e padrões mal-intencionados antes da implantação. Esse processo impede a execução de scripts comprometidos e mantém padrões de qualidade de código. Realize revisões completas de segurança de todos os scripts antes da implantação. Use sistemas de controle de versão para controlar as alterações e garantir que somente as versões de código aprovadas sejam executadas em seus agentes de IA.
Configurar limites de recursos e tempos limite. Defina limites de recursos para impedir que execuções individuais consumam recursos excessivos do sistema e interrompam outros serviços. Esses controles mantêm a estabilidade do sistema e impedem condições de negação de serviço. Defina os limites de uso de CPU, memória e disco para ambientes de execução. Configure tempos limite automáticos para encerrar processos de execução prolongada ou travados.
Monitorar a atividade de execução. Monitore a atividade de execução para obter visibilidade do comportamento do agente de IA e detectar padrões mal-intencionados ou incomuns. Esse monitoramento permite resposta rápida a incidentes de segurança e mantém a conscientização operacional. Registre todas as atividades de execução, monitore padrões de uso de recursos e configure alertas para comportamento suspeito ou anomalias de consumo de recursos.
Para obter mais informações, consulte os seguintes recursos:
- Serviço do Foundry Agent
- How to create Assistants with Serviço OpenAI do Azure
- Como usar a chamada de função dos Assistentes do Azure OpenAI
- Implementação do agente
Recursos de segurança e arquitetura do Azure
| Categoria | Tool | Descrição |
|---|---|---|
| Linhas de base de segurança | linha de base de segurança do Azure Machine Learning | Controles de segurança padronizados para implantações de Azure Machine Learning |
| Linhas de base de segurança | Linha de base de segurança da fundição | Controles de segurança para ambientes do Foundry |
| Linhas de base de segurança | Linha de base de segurança do OpenAI no Azure | Controles de segurança para serviços Azure OpenAI |
| Diretrizes para arquitetura | guia de serviço Azure Machine Learning | Recomendações de segurança para Azure Machine Learning |
| Diretrizes para arquitetura | guia de serviço Azure OpenAI | Práticas recomendadas de segurança para implementações do OpenAI Azure |