Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
En este artículo se proporcionan recomendaciones de seguridad para las organizaciones que ejecutan cargas de trabajo de inteligencia artificial en Azure. La guía se centra en soluciones de inteligencia artificial de plataforma como servicio (PaaS) de Azure. Debe proteger los recursos de inteligencia artificial frente a amenazas para mantener la integridad y el cumplimiento de los datos. Use líneas base de seguridad y marcos bien diseñados para proteger la infraestructura de inteligencia artificial frente a vulnerabilidades.
Proteger los recursos de IA
Para proteger los recursos de inteligencia artificial, aplique líneas base de seguridad y procedimientos recomendados para proteger la infraestructura que admite cargas de trabajo de inteligencia artificial en Azure. Estas medidas reducen los riesgos de las amenazas externas y garantizan una seguridad coherente en toda la organización. Aplique controles de seguridad estandarizados para mantener una protección sólida. A continuación se muestra cómo hacerlo:
Aplique Azure líneas base de seguridad a todos los recursos de inteligencia artificial. Azure líneas base de seguridad proporcionan controles de seguridad estandarizados que abordan vulnerabilidades comunes en las plataformas de inteligencia artificial. Estas líneas base garantizan una protección coherente y reducen los errores de configuración que podrían exponer la infraestructura. Use las líneas base de seguridad Azure para cada plataforma de inteligencia artificial que implemente.
Siga las instrucciones de seguridad de Azure Well-Architected Framework. El Azure Well-Architected Framework proporciona recomendaciones de seguridad específicas del servicio que complementan los controles de línea base. Estas directrices abordan consideraciones de seguridad únicas para cada servicio de inteligencia artificial y ayudan a optimizar su posición de seguridad. Revise e implemente las recomendaciones de seguridad en Azure Service Guides para las plataformas de inteligencia artificial.
Protección de modelos de IA
La seguridad del modelo de IA protege contra amenazas como ataques de inyección de mensajes y manipulación de modelos, lo que puede poner en peligro la integridad del sistema. La protección de modelos garantiza salidas confiables y mantiene la confianza de la organización. Implemente una protección completa del modelo para evitar la explotación malintencionada y mantener la confiabilidad del servicio. A continuación se muestra cómo hacerlo:
Habilite la protección contra amenazas para todos los modelos de IA. Microsoft Defender for Cloud supervisa y detecta continuamente amenazas emergentes antes de poner en peligro la infraestructura de inteligencia artificial. Esta protección garantiza una cobertura de seguridad coherente en todas las cargas de trabajo de IA y reduce el tiempo de respuesta a los ataques. Implemente Microsoft Defender for Cloud protección contra amenazas de IA para supervisar los ataques de inyección de mensajes, la manipulación del modelo y otras amenazas específicas de la inteligencia artificial.
Supervise los resultados y aplique un blindaje rápido. Monitoree las salidas para detectar respuestas malintencionadas o impredecibles que puedan indicar ataques exitosos contra sus modelos de IA. Utiliza el blindaje de solicitudes para bloquear los comandos de usuario perjudiciales y evitar respuestas inapropiadas. Implemente Prompt Shields para examinar las entradas del usuario en busca de patrones de ataque y revisar periódicamente las salidas del modelo para detectar signos de peligro o manipulación.
Compruebe la autenticidad y la integridad del modelo. Compruebe los modelos para garantizar que solo los modelos de INTELIGENCIA artificial legítimos y seguros funcionen en su entorno. Este proceso impide que los modelos no autorizados o alterados comprometan la infraestructura y mantenga la confianza en las salidas de IA. Establezca los pasos de comprobación para comprobar las firmas del modelo, validar la autenticidad del origen y confirmar la integridad del modelo antes de la implementación. Preste especial atención a los modelos de código abierto.
Implemente una puerta de enlace de IA para la seguridad centralizada. Use una puerta de enlace de IA para centralizar el control de tráfico y aplicar directivas de seguridad coherentes en todas las cargas de trabajo de IA. Este método simplifica la administración de seguridad y garantiza estándares de protección uniformes. Use Azure API Management como puerta de enlace de IA para aplicar directivas de autenticación, controlar el flujo de tráfico y supervisar el uso de la API. Configure la identidad administrada de la puerta de enlace con acceso con privilegios mínimos e integre con Microsoft Entra ID para autenticación centralizada.
Proteger el acceso a la IA
Los controles de acceso a la inteligencia artificial restringen el uso de recursos a los usuarios autorizados a través de la autenticación y autorización. La administración de acceso evita interacciones no autorizadas con modelos de inteligencia artificial y protege los datos confidenciales. Implemente controles de acceso completos para mantener el cumplimiento de la seguridad y reducir los riesgos de infracción. A continuación se muestra cómo hacerlo:
Use Microsoft Entra ID para la autenticación en lugar de las claves de API. Microsoft Entra ID proporciona una administración de identidades centralizada y características de seguridad avanzadas que carecen de claves de API estáticas. El uso de Entra ID elimina la sobrecarga de administración de credenciales y reduce las vulnerabilidades de las claves en peligro. Reemplace las claves de API por autenticación Microsoft Entra ID para Foundry, Azure OpenAI y Foundry Tools. Si se requieren claves, gire periódicamente las claves y audite el acceso.
Mantener un inventario de agentes de IA. Mantenga un inventario preciso de las identidades del agente de IA para respaldar la administración de acceso y la aplicación de políticas. Este inventario evita las implementaciones de shadow AI y garantiza que todos los agentes sigan los estándares de seguridad. Use Agente de Microsoft Entra ID para ver todos los agentes de IA creados a través de Foundry y Copilot Studio.
Configure la autenticación multifactor y el acceso con privilegios. Habilite la autenticación multifactor para agregar una capa de seguridad que protege frente a los riesgos de las credenciales. Use controles de acceso con privilegios para limitar la exposición administrativa y reducir las superficies expuestas a ataques. Habilite la autenticación multifactor para todos los usuarios e implemente Gestión de Identidades Privilegiadas para que las cuentas administrativas proporcionen acceso justo a tiempo.
Implementar políticas de acceso condicional. Las directivas de acceso condicional proporcionan seguridad adaptable que responde a indicadores de riesgo y contexto. Estas directivas impiden el acceso no autorizado y mantienen la productividad del usuario a través de decisiones de acceso inteligente. Configure directivas de acceso condicional basadas en el riesgo para requerir una verificación adicional de la actividad inusual de inicio de sesión, restringir el acceso por ubicación geográfica y garantizar que solo los dispositivos conformes accedan a los recursos de IA.
Aplique los principios de acceso con privilegios mínimos. Aplique el acceso con privilegios mínimos para minimizar la exposición de seguridad al conceder solo los permisos necesarios para cada rol. Este enfoque reduce el impacto de las infracciones y evita el acceso no autorizado a los recursos. Utilice el control de acceso basado en roles de Azure para asignar permisos en función de las responsabilidades laborales y revisar periódicamente el acceso para evitar la elevación de privilegios.
Protección de la comunicación entre servicios. Use la autenticación entre servicios para eliminar la complejidad de la administración de credenciales y proporcionar canales de comunicación seguros. Este método reduce los riesgos de seguridad de las credenciales almacenadas y simplifica la administración del acceso. Use managed identity para autenticar Azure servicios sin administrar credenciales.
Controle el acceso externo a los puntos de conexión de IA. Controle el acceso externo para garantizar que solo los clientes autorizados interactúen con los modelos de IA. La supervisión completa evita el uso de modelos no autorizados y mantiene la disponibilidad del servicio. Requerir autenticación de Microsoft Entra ID para los puntos de conexión del modelo de IA. Considere Azure API Management como puerta de enlace de IA para aplicar directivas de acceso y supervisar los patrones de uso.
Utilice el Foundry Management Center para la gobernanza. Use la administración centralizada para proporcionar controles de acceso coherentes y gobernanza de recursos en toda la infraestructura de IA. La centralización garantiza el cumplimiento de los estándares de la organización y simplifica la administración. Use el centro de administración para controlar el acceso a los recursos de inteligencia artificial, administrar cuotas y aplicar directivas de gobernanza.
Proteger los datos de IA
Para proteger los datos de inteligencia artificial, implemente límites de datos y controles de acceso para evitar infracciones de cumplimiento y infracciones de privacidad. Aplique una gobernanza de datos estricta para garantizar que cada aplicación de inteligencia artificial procese solo los conjuntos de datos adecuados. A continuación se muestra cómo hacerlo:
Defina los límites de datos en función de los niveles de acceso de los usuarios. Defina los límites de datos para separar los tipos de información en función de los permisos de usuario y el ámbito de la aplicación. Esta separación impide que las aplicaciones de inteligencia artificial exponga datos confidenciales a usuarios no autorizados. Cree conjuntos de datos distintos para aplicaciones orientadas a empleados (datos internos), aplicaciones orientadas al cliente (datos de cliente) y aplicaciones orientadas al público (solo datos públicos).
Implemente el aislamiento de conjuntos de datos para diferentes aplicaciones de inteligencia artificial. Aísle los conjuntos de datos para que cada carga de trabajo de IA funcione dentro de su entorno de datos designado sin contaminación cruzada. Este aislamiento reduce los riesgos de pérdida de datos entre las aplicaciones con distintos requisitos de seguridad. Use cuentas de almacenamiento, bases de datos o lagos de datos independientes Azure para diferentes aplicaciones de inteligencia artificial. Configure los controles de acceso para evitar el acceso no autorizado entre conjuntos de datos.
Configurar controles de acceso a datos basados en roles. Configure controles basados en roles para garantizar que los usuarios y las aplicaciones accedan solo a los datos adecuados para su función y nivel de autorización. Este enfoque reduce los riesgos de escalación de privilegios y la exposición a datos no autorizados. Implemente Azure directivas de RBAC que alineen los permisos de acceso a datos con los roles de usuario y los requisitos de la aplicación.
Use Microsoft Purview para la gobernanza de datos. Use Microsoft Purview para la administración centralizada de detección, clasificación y cumplimiento de datos en todo el ecosistema de inteligencia artificial. Purview mantiene la visibilidad sobre el uso de datos y garantiza el cumplimiento de las directivas organizativas. Implemente Microsoft Purview for Foundry y AI agents para supervisar el linaje de datos, clasificar información confidencial y aplicar directivas de gobernanza de datos.
Ejecución segura de la IA
La ejecución segura de IA protege contra la ejecución de código malintencionado cuando los agentes de IA llevan a cabo operaciones solicitadas por el usuario o procesos autónomos. Estos controles impiden el riesgo del sistema y mantienen la estabilidad de la infraestructura. Implemente controles de ejecución completos para protegerse frente a ataques por inyección de código y agotamiento de recursos. A continuación se muestra cómo hacerlo:
Aísle los entornos de ejecución de IA. Aísle los entornos de ejecución para que cada ejecución de código funcione en un espacio controlado y no pueda afectar a otros componentes del sistema. Este aislamiento impide que el código malintencionado comprometa los sistemas host o acceda a recursos no autorizados. Use Dynamic Sessions en Azure Container Apps para crear entornos frescos y aislados para cada ejecución. Destruya estos entornos automáticamente después de la finalización.
Revise y apruebe el código de ejecución. Revise y apruebe el código de ejecución para identificar vulnerabilidades de seguridad y patrones malintencionados antes de la implementación. Este proceso impide que los scripts en peligro se ejecuten y mantengan los estándares de calidad del código. Realice revisiones exhaustivas de seguridad de todos los scripts antes de la implementación. Use sistemas de control de versiones para realizar un seguimiento de los cambios y asegurarse de que solo las versiones de código aprobadas se ejecutan en los agentes de IA.
Configure los límites de recursos y los tiempos de espera. Establezca límites de recursos para evitar que las ejecuciones individuales consuman recursos excesivos del sistema e interrumpan otros servicios. Estos controles mantienen la estabilidad del sistema y evitan las condiciones de denegación de servicio. Establezca los límites de uso de CPU, memoria y disco para entornos de ejecución. Configure tiempos de espera automáticos para finalizar procesos de larga duración o bloqueados.
Supervisar la actividad de ejecución. Supervise la actividad de ejecución para obtener visibilidad del comportamiento del agente de IA y detectar patrones malintencionados o inusuales. Esta supervisión permite una respuesta rápida a los incidentes de seguridad y mantiene el conocimiento operativo. Registre todas las actividades de ejecución, supervise los patrones de uso de recursos y configure alertas para detectar comportamientos sospechosos o anomalías en el consumo de recursos.
Para obtener más información, consulte los siguientes recursos:
- Servicio de agente de Foundry
- Cómo crear asistentes con Azure OpenAI Service
- Cómo usar la función de llamadas en Azure OpenAI Assistants
- Implementación del agente
recursos de seguridad y arquitectura de Azure
| Categoría | Herramienta | Descripción |
|---|---|---|
| Líneas base de seguridad | Línea base de seguridad de Azure Machine Learning | Controles de seguridad estandarizados para implementaciones de Azure Machine Learning |
| Líneas base de seguridad | Línea de base de seguridad de Foundry | Controles de seguridad para entornos de Foundry |
| Líneas base de seguridad | Línea base de seguridad de Azure OpenAI | Controles de seguridad para los servicios de Azure OpenAI |
| Guía de arquitectura | Guía del servicio Azure Machine Learning | Recomendaciones de seguridad para Azure Machine Learning |
| Guía de arquitectura | Guía del servicio Azure OpenAI | Procedimientos recomendados de seguridad para implementaciones de OpenAI de Azure |