Serviços seguros da plataforma Azure (PaaS) para IA

Este artigo fornece recomendações de segurança para organizações que executam cargas de trabalho de IA no Azure. A orientação foca-se nas soluções Azure AI platform-as-a-service (PaaS). Deve proteger os recursos de IA contra ameaças para manter a integridade e conformidade dos dados. Use bases de segurança e frameworks bem estruturados para proteger a sua infraestrutura de IA contra vulnerabilidades.

Recursos seguros de IA

Para proteger os recursos de IA, aplique bases de segurança e boas práticas para proteger a infraestrutura que suporta cargas de trabalho de IA no Azure. Estas medidas reduzem os riscos de ameaças externas e garantem uma segurança consistente em toda a sua organização. Aplicar controlos de segurança padronizados para manter uma proteção robusta. Saiba como:

  1. Aplique bases de segurança do Azure a todos os recursos de IA. As bases de segurança do Azure fornecem controlos de segurança padronizados que abordam vulnerabilidades comuns em várias plataformas de IA. Essas linhas de base garantem uma proteção consistente e reduzem os erros de configuração que podem expor sua infraestrutura. Use as linhas de base de segurança Azure para cada plataforma de IA que implementar.

  2. Siga as orientações de segurança do Azure Well-Architected Framework. O Framework Azure Well-Architected fornece recomendações de segurança específicas para o serviço que complementam os controlos de base. Essas diretrizes abordam considerações de segurança exclusivas para cada serviço de IA e ajudam a otimizar sua postura de segurança. Revise e implemente as recomendações de segurança nos Guias de Serviço Azure para as suas plataformas de IA.

Modelos seguros de IA

A segurança dos modelos de IA protege contra ameaças como ataques de injeção rápida e manipulação de modelos, que podem comprometer a integridade do sistema. Garantir modelos assegura resultados fiáveis e mantém a confiança organizacional. Implementar proteção abrangente do modelo para prevenir exploração maliciosa e manter a fiabilidade do serviço. Saiba como:

  1. Habilite a proteção contra ameaças para todos os modelos de IA. O Microsoft Defender para a Cloud monitoriza e deteta continuamente ameaças emergentes antes que comprometam a sua infraestrutura de IA. Esta proteção garante uma cobertura de segurança consistente em todas as cargas de trabalho de IA e reduz o tempo de resposta aos ataques. Implementar Microsoft Defender para a Cloud proteção contra ameaças de IA para monitorizar ataques de injeção rápida, manipulação de modelos e outras ameaças específicas de IA.

  2. Monitore as saídas e aplique uma blindagem rápida. Monitorize os resultados para detetar respostas maliciosas ou imprevisíveis que possam indicar ataques bem-sucedidos contra os seus modelos de IA. Utilize a blindagem de prompts para bloquear entradas prejudiciais do utilizador e prevenir respostas inadequadas. Implemente PromptShields para verificar as entradas do usuário em busca de padrões de ataque e revise regularmente as saídas do modelo em busca de sinais de comprometimento ou manipulação.

  3. Verifique a autenticidade e integridade do modelo. Verifique os modelos para garantir que apenas modelos de IA legítimos e seguros operam no seu ambiente. Este processo impede que modelos não autorizados ou adulterados comprometam a sua infraestrutura e mantém a confiança nos resultados da IA. Estabelecer passos de verificação para verificar assinaturas do modelo, validar a autenticidade da fonte e confirmar a integridade do modelo antes da implementação. Preste especial atenção a modelos open-source.

  4. Implante um gateway de IA para segurança centralizada. Use um gateway de IA para centralizar o controlo do tráfego e impor políticas de segurança consistentes em todas as cargas de trabalho de IA. Este método simplifica a gestão da segurança e assegura padrões uniformes de proteção. Use API Management do Azure como gateway de IA para impor políticas de autenticação, controlar o fluxo de tráfego e monitorizar o uso da API. Configure a identidade gerida do gateway com menor privilégio e integre com o Microsoft Entra ID para autenticação centralizada.

Acesso seguro à IA

Os controlos de acesso por IA restringem o uso de recursos a utilizadores autorizados através de autenticação e autorização. O gerenciamento de acesso impede interações não autorizadas com modelos de IA e protege dados confidenciais. Implementar controlos de acesso abrangentes para manter a conformidade com a segurança e reduzir os riscos de violação. Saiba como:

  1. Use o Microsoft Entra ID para autenticação em vez de chaves API. O Microsoft Entra ID oferece gestão centralizada de identidades e funcionalidades avançadas de segurança que as chaves API estáticas não possuem. Usar o Entra ID elimina a sobrecarga de gestão de credenciais e reduz vulnerabilidades causadas por chaves comprometidas. Substituir as chaves API por autenticação Microsoft Entra ID para Foundry, Azure OpenAI e Foundry Tools. Se forem necessárias chaves, rodar regularmente as chaves e auditar o acesso.

  2. Mantenha um inventário de agentes de IA. Mantenha um inventário preciso das identidades dos agentes de IA para apoiar a gestão de acessos e a aplicação de políticas. Esse inventário evita implantações de IA sombra e garante que todos os agentes sigam os padrões de segurança. Use ID do Agente Microsoft Entra para ver todos os agentes de IA criados através do Foundry e Copilot Studio.

  3. Configure a autenticação multifator e o acesso privilegiado. Ative a autenticação multifator para adicionar uma camada de segurança que proteja contra comprometimento de credenciais. Utilize controlos de acesso privilegiados para limitar a exposição administrativa e reduzir superfícies de ataque. Ative a autenticação multifator para todos os utilizadores e implemente Privileged Identity Management para contas administrativas que forneçam acesso just-in-time.

  4. Implementar políticas de Acesso Condicional. As políticas de Acesso Condicional fornecem segurança adaptável que responde aos indicadores de risco e ao contexto. Estas políticas previnem acessos não autorizados e mantêm a produtividade dos utilizadores através de decisões inteligentes de acesso. Configurar políticas de Acesso Condicional baseadas em risco para exigir verificação adicional para atividades invulgares de início de sessão, restringir o acesso por localização geográfica e garantir que apenas dispositivos compatíveis acedem aos recursos de IA.

  5. Aplique os princípios de acesso com privilégios mínimos. Aplique o acesso com privilégios mínimos para minimizar a exposição à segurança, concedendo apenas permissões necessárias para cada função. Esta abordagem reduz o impacto das violações e previne o acesso não autorizado a recursos. Use controlo de acesso baseado em funções do Azure para atribuir permissões com base nos papéis profissionais e rever regularmente o acesso para evitar a escalação de privilégios.

  6. Comunicação segura entre serviços. Utilize autenticação serviço-a-serviço para eliminar a complexidade da gestão de credenciais e proporcionar canais de comunicação seguros. Este método reduz os riscos de segurança decorrentes das credenciais armazenadas e simplifica a gestão de acessos. Use identidade gerida para autenticar Azure serviços sem gerir credenciais.

  7. Controle o acesso externo aos endpoints de IA. Controlar o acesso externo para garantir que apenas os clientes autorizados interagem com modelos de IA. A monitorização abrangente previne o uso não autorizado do modelo e mantém a disponibilidade do serviço. Exigir a autenticação Microsoft Entra ID para os endpoints de modelos de IA. Considere o API Management do Azure como um gateway de IA para aplicar políticas de acesso e monitorizar padrões de utilização.

  8. Use o Foundry Management Center para gestão. Use a gestão centralizada para garantir controlos de acesso consistentes e governação de recursos em toda a sua infraestrutura de IA. A centralização assegura o cumprimento das normas organizacionais e simplifica a administração. Use o centro de gerenciamento para controlar o acesso aos recursos de IA, gerenciar cotas e aplicar políticas de governança.

Proteja os dados de IA

Para proteger os dados de IA, implementar limites de dados e controlos de acesso para prevenir violações de conformidade e violações de privacidade. Aplique uma governação rigorosa dos dados para garantir que cada aplicação de IA processa apenas conjuntos de dados apropriados. Saiba como:

  1. Defina limites de dados com base nos níveis de acesso do usuário. Defina limites de dados para separar os tipos de informação com base nas permissões do utilizador e no âmbito da aplicação. Essa separação impede que aplicativos de IA exponham dados confidenciais a usuários não autorizados. Crie conjuntos de dados distintos para aplicativos voltados para funcionários (dados internos), aplicativos voltados para o cliente (dados do cliente) e aplicativos voltados para o público (somente dados públicos).

  2. Implemente o isolamento de conjuntos de dados para diferentes aplicações de IA. Isole conjuntos de dados para que cada carga de trabalho de IA opere dentro do seu ambiente de dados designado sem contaminação cruzada. Esse isolamento reduz os riscos de vazamento de dados entre aplicativos com diferentes requisitos de segurança. Use contas de armazenamento Azure separadas, bases de dados ou data lakes para diferentes aplicações de IA. Configure controlos de acesso para evitar acessos não autorizados entre conjuntos de dados.

  3. Configure controles de acesso a dados baseados em função. Configurar controlos baseados em funções para garantir que utilizadores e aplicações acedam apenas a dados adequados à sua função e nível de autorização. Essa abordagem reduz os riscos de escalonamento de privilégios e a exposição não autorizada de dados. Implemente políticas RBAC do Azure que alinhem as permissões de acesso aos dados com os papéis dos utilizadores e os requisitos da aplicação.

  4. Use o Microsoft Purview para governação de dados. Use o Microsoft Purview para descoberta, classificação e gestão centralizada de dados em todo o seu ecossistema de IA. A Purview mantém visibilidade sobre o uso de dados e assegura o cumprimento das políticas organizacionais. Implementar Microsoft Purview para Foundry e agentes de IA para monitorizar a linhagem de dados, classificar informações sensíveis e aplicar políticas de governação de dados.

Execução segura de IA

A segurança de execução de IA protege contra a execução de códigos maliciosos quando agentes de IA executam operações solicitadas pelo usuário ou processos autônomos. Estes controlos evitam comprometimento do sistema e mantêm a estabilidade da infraestrutura. Implemente controlos abrangentes de execução para proteger contra ataques de injeção de código e esgotamento de recursos. Saiba como:

  1. Isole ambientes de execução de IA. Isolar os ambientes de execução para que cada execução de código opere num espaço controlado e não possa afetar outros componentes do sistema. Esse isolamento impede que códigos mal-intencionados comprometam os sistemas host ou acessem recursos não autorizados. Use Dynamic Sessions em Azure Container Apps para criar ambientes novos e isolados para cada execução. Destrói estes ambientes automaticamente após a conclusão.

  2. Revise e aprove o código de execução. Revise e aprove o código de execução para identificar vulnerabilidades de segurança e padrões maliciosos antes da implementação. Este processo impede a execução de scripts comprometidos e mantém os padrões de qualidade do código. Realizar revisões de segurança rigorosas de todos os scripts antes da implementação. Use sistemas de controlo de versões para acompanhar alterações e garantir que apenas versões aprovadas de código sejam executadas nos seus agentes de IA.

  3. Configure limites de recursos e tempos limites. Defina limites de recursos para evitar que execuções individuais consumam recursos excessivos do sistema e perturbem outros serviços. Esses controles mantêm a estabilidade do sistema e evitam condições de negação de serviço. Defina limites de utilização de CPU, memória e disco para ambientes de execução. Configure tempos limite automáticos para terminar processos que demorem demasiado tempo ou estejam bloqueados.

  4. Monitore a atividade de execução. Monitorizar a atividade de execução para obter visibilidade sobre o comportamento dos agentes de IA e detetar padrões maliciosos ou invulgares. Esta monitorização permite uma resposta rápida a incidentes de segurança e mantém a consciência operacional. Registre todas as atividades de execução, monitore padrões de uso de recursos e configure alertas para comportamento suspeito ou anomalias de consumo de recursos.

Para obter mais informações, consulte os seguintes recursos:

Recursos de segurança e arquitetura do Azure

Categoria Tool Descrição
Linhas de base de segurança Referência de segurança do Azure Machine Learning Controlos de segurança padronizados para implementações do Azure Machine Learning
Linhas de base de segurança Linha de base de segurança do Foundry Controlos de segurança para ambientes Foundry
Linhas de base de segurança Azure linha base de segurança da OpenAI Controles de segurança para os serviços Azure OpenAI
Orientações para a arquitetura Guia de serviço do Azure Machine Learning Recomendações de segurança para Azure Machine Learning
Orientações para a arquitetura Guia do Serviço Azure OpenAI Boas práticas de segurança para implementações do Azure OpenAI

Passos seguintes