Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Importante
Esta funcionalidade está atualmente em pré-visualização e incluída no plano Microsoft Defender para Serviços de IA. Durante a pré-visualização, não há custos adicionais para a digitalização de modelos de IA. No entanto, ativar o plano Defender para Serviços de IA pode acarretar custos relacionados com funcionalidades de proteção contra ameaças. A inclusão contínua da funcionalidade de digitalização de modelos de IA como parte do Defender para Serviços de IA não está garantida quando alcançar disponibilidade geral (GA), e as condições de licenciamento podem mudar. Se isso acontecer, será enviada uma notificação antes de a funcionalidade ser desativada, com opções para a reativar sob a licença aplicável.
À medida que as organizações utilizam cada vez mais modelos de inteligência artificial (IA) para impulsionar automação, insights e tomada de decisões inteligentes, as equipas de segurança precisam de visibilidade e controlo para avaliar a segurança e conformidade dos modelos de IA que entram nos seus ambientes. Estes modelos têm frequentemente amplo acesso a dados e infraestruturas. Sem estas capacidades, torna-se cada vez mais difícil aplicar normas internas.
O Defender para IA do Microsoft Defender para a Cloud suporta a análise de modelos de IA. A varredura de modelos por IA proporciona deteção proativa de artefactos inseguros ou maliciosos e monitoriza continuamente os modelos para riscos ao longo de todo o ciclo de vida da IA.
A segurança dos modelos de IA analisa automaticamente os modelos de IA à procura de riscos de segurança, como malware embutido, operadores inseguros e segredos expostos antes de esses modelos entrarem em produção. Integrado diretamente com o Azure Machine Learning e os pipelines de CI/CD, o serviço apresenta descobertas em tempo real e orientações práticas de mitigação, para que as equipes possam travar modelos arriscados nas fases iniciais do processo de desenvolvimento.
Ao utilizar a segurança dos modelos de IA, as equipas de segurança podem analisar modelos de IA personalizados carregados para espaços de trabalho e registos do Azure Machine Learning para identificar ameaças como malware embutido, operadores inseguros e segredos expostos. O Defender para a Cloud apresenta os resultados, dando às equipas visibilidade sobre as conclusões de segurança, juntamente com classificações de gravidade, orientações de remediação e metadados relevantes do modelo para apoiar uma triagem e priorização eficazes. Os programadores também podem desencadear varreduras de modelos durante as fases de construção ou lançamento, utilizando ferramentas de CLI integradas com pipelines do Azure DevOps ou GitHub, permitindo varredura estática e deteção precoce de risco antes dos modelos entrarem em produção.
Pré-requisitos
- Deve ter uma subscrição Azure que contenha modelos de IA registados em registos ou espaços de trabalho Azure Machine Learning (Azure Machine Learning).
Observação
Espaços de trabalho e registos que usam um link privado não são suportados.
Ativar o plano Defender para a Cloud Security Posture Management.
Deve ativar a proteção contra ameaças para serviços de IA e o componente de segurança do modelo de IA do plano.
Permissões necessárias: Para ativar o plano, precisa de permissões ao nível Proprietário ou Contribuidor nos recursos Azure Machine Learning.
Formatos de ficheiro de modelo suportados:
Pickle (.pkl),HDF5 (.h5),TorchScript (.pt)ONNX (.onnx),SafeTensors (.safetensors),TensorFlow SavedModel / TFLite (FlatBuffers),NumPy (.npy),Arrow, MsgPack, dill, joblib, .PMML, JSON, POJO, MOJO, GGUFLimite de tamanho do ficheiro: 10 GB. Ficheiros de modelo com mais de 10 GB não podem ser digitalizados.
A ecografia ocorre uma vez por semana.
Localize todos os modelos de IA no seu ambiente
Inicie sessão no portal Azure.
Pesquise e selecione Microsoft Defender para a Cloud.
Selecione Cloud Security Explorer.
Selecione AI & Mls>modelos de IA.
Selecione Concluído.
Selecione +.
Selecione Metadados>Metadados do Modelo de IA.
Selecione Pesquisar.
O Cloud Security Explorer apresenta todos os modelos de IA no seu ambiente. Pode selecionar ver detalhes para obter mais informações sobre cada modelo selecionado.
Localizar modelos de IA com descobertas de segurança
Use o Cloud Security Explorer para encontrar modelos de IA que tenham descobertas ativas de segurança.
Siga os passos 1 a 7 da secção Localizar todos os modelos de IA no seu ambiente .
Selecione +.
Selecionar Recomendações>Todas as recomendações.
Selecione Pesquisar.
O Cloud Security Explorer apresenta todos os modelos de IA no seu ambiente que tenham descobertas ativas de segurança. Selecione ver detalhes para ver mais informações sobre cada modelo e as descobertas associadas.
Localize todos os modelos de IA no seu ambiente
A página do portal Defender Assets oferece uma visão abrangente de todos os modelos de IA no seu ambiente.
Inicie sessão no portal Microsoft Defender.
Vá aAssets>Cloud>IA>modelos de IA.
Selecione um modelo de IA com recomendações.
Selecionar Abrir página de ativo.
Selecione as recomendações> de segurança relevantes.
Revise e remedie a descoberta de segurança conforme necessário.
Também pode gerir a recomendação no portal do Azure.