Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Importante
Esta característica se encuentra actualmente en versión preliminar e incluye el plan de Microsoft Defender para servicios de IA. Durante la versión preliminar, no hay ningún cargo adicional por el examen de modelos de IA. Sin embargo, habilitar el plan de Defender para servicios de IA puede incurrir en costos relacionados con las características de protección contra amenazas. No se garantiza la inclusión continua de la característica de análisis de modelos de IA como parte de Defender para servicios de IA cuando esté disponible con carácter general (GA) y los requisitos de licencia puedan cambiar. Si esto ocurre, se enviará una notificación antes de que la característica esté deshabilitada con opciones para volver a habilitarla en la licencia aplicable.
A medida que las organizaciones usan cada vez más modelos de inteligencia artificial (AI) para impulsar la automatización, la información y la toma de decisiones inteligentes, los equipos de seguridad necesitan visibilidad y control para evaluar la seguridad y el cumplimiento de los modelos de inteligencia artificial que entran en sus entornos. Estos modelos suelen tener un amplio acceso a los datos y la infraestructura. Sin estas funcionalidades, resulta cada vez más difícil aplicar estándares internos.
Microsoft Defender for Cloud para la seguridad de IA admite el escaneo de modelos de IA. El examen de modelos de IA proporciona detección proactiva de artefactos no seguros o malintencionados y supervisa continuamente los modelos para el riesgo durante todo el ciclo de vida de la inteligencia artificial.
La seguridad del modelo de inteligencia artificial examina automáticamente los modelos de inteligencia artificial para detectar riesgos de seguridad, como malware incrustado, operadores no seguros y secretos expuestos antes de que esos modelos lleguen a producción. Integrado directamente con Azure Machine Learning y canalizaciones de CI/CD, el servicio expone conclusiones en tiempo real y instrucciones de corrección accionables, por lo que los equipos pueden detener los modelos de riesgo al principio del proceso de desarrollo.
Mediante el uso de la seguridad del modelo de IA, los equipos de seguridad pueden examinar modelos de IA personalizados cargados en Azure Machine Learning áreas de trabajo y registros para identificar amenazas como malware incrustado, operadores no seguros y secretos expuestos. Defender for Cloud presenta los resultados, lo que proporciona a los equipos visibilidad de los resultados de seguridad junto con clasificaciones de gravedad, instrucciones de corrección y metadatos del modelo pertinentes para admitir la evaluación y priorización eficaces. Los desarrolladores también pueden desencadenar exámenes de modelos durante las fases de compilación o versión mediante herramientas de la CLI integradas con canalizaciones de Azure DevOps o GitHub, lo que permite el examen estático y la detección temprana de riesgos antes de que los modelos lleguen a producción.
Prerrequisitos
- Debe tener una suscripción de Azure que contenga modelos de IA registrados en registros o áreas de trabajo de Azure Machine Learning (Azure Machine Learning).
Nota:
No se admiten áreas de trabajo ni registros que usan un vínculo privado.
Habilite el plan de administración de la postura de seguridad de Defender for Cloud.
Debe habilitar la protección contra amenazas para los servicios de inteligencia artificial y el componente de seguridad del modelo de IA del plan.
Permisos necesarios: para habilitar el plan, necesita permisos de nivel Owner o Contributor en los recursos de Azure Machine Learning.
Formatos de archivo de modelo admitidos:
Pickle (.pkl),HDF5 (.h5),TorchScript (.pt)ONNX (.onnx)SafeTensors (.safetensors)TensorFlow SavedModel / TFLite (FlatBuffers)NumPy (.npy), ,Arrow, MsgPack, dill, joblib, .PMML, JSON, POJO, MOJO, GGUFLímite de tamaño de archivo: 10 GB. No se pueden examinar los archivos de modelo de más de 10 GB.
El examen se produce una vez a la semana.
Búsqueda de todos los modelos de IA en su entorno
Inicie sesión en el portal Azure.
Busque y seleccione Microsoft Defender for Cloud.
Seleccione Cloud Security Explorer.
SeleccioneIA y Mls>modelos de IA.
Seleccione Listo.
Seleccione +.
Seleccione Metadatos>Metadatos del modelo de IA.
Seleccione Buscar.
Cloud Security Explorer muestra todos los modelos de IA de su entorno. Puede seleccionar ver los detalles para ver más información sobre cada modelo seleccionado.
Localizar modelos de inteligencia artificial con hallazgos de seguridad
Use Cloud Security Explorer para buscar modelos de inteligencia artificial que tengan resultados de seguridad activos.
Siga los pasos del 1 al 7 de la sección Búsqueda de todos los modelos de IA en el entorno .
Seleccione +.
Seleccione Recomendaciones>Todas las recomendaciones.
Seleccione Buscar.
Cloud Security Explorer muestra todos los modelos de inteligencia artificial del entorno que tienen resultados de seguridad activos. Seleccione Ver detalles para ver más información sobre cada modelo y los resultados asociados.
Búsqueda de todos los modelos de IA en su entorno
La página Defender portal Assets proporciona una vista completa de todos los modelos de IA de su entorno.
Inicie sesión en el portal Microsoft Defender.
Vaya a Assets>Cloud>AI>Modelos de inteligencia artificial.
Seleccione un modelo de IA con recomendaciones.
Seleccione Abrir página de recursos.
Seleccione Recomendaciones> de seguridad la recomendación pertinente.
Revise y solucione el hallazgo de seguridad según sea necesario.
También puede administrar la recomendación en el portal de Azure.