Carte d’application : Gestion de la posture de sécurité des données Microsoft Purview

Qu’est-ce qu’une carte d’application ou de plateforme ?

Les cartes Application et Plateforme de Microsoft sont destinées à vous aider à comprendre le fonctionnement de notre technologie IA, les choix que les propriétaires d’applications peuvent faire qui influencent les performances et le comportement de l’application, et l’importance de prendre en compte l’ensemble de l’application, y compris la technologie, les personnes et l’environnement. Les cartes d’application sont créées pour les applications IA et les cartes de plateforme sont créées pour les services de plateforme IA. Ces ressources peuvent prendre en charge le développement ou le déploiement de vos propres applications et peuvent être partagées avec les utilisateurs ou les parties prenantes concernés.

Dans le cadre de son engagement envers l’IA responsable, Microsoft adhère à six principes fondamentaux : l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusion, la transparence et la responsabilité. Ces principes sont incorporés dans le Standard d’IA responsable, qui guide les équipes dans la conception, la création et le test d’applications IA. Les cartes d’application et de plateforme jouent un rôle clé dans l’opérationnalisation de ces principes en offrant une transparence sur les fonctionnalités, les utilisations prévues et les limitations. Pour plus d’informations, les lecteurs sont encouragés à explorer le rapport de transparence de l’IA responsable et le code de conduite de Microsoft, qui décrivent comment les clients d’entreprise et les individus peuvent s’engager avec l’IA de manière responsable.

Vue d’ensemble

Gestion de la posture de sécurité des données Microsoft Purview est une application de sécurité des données dans le portail Microsoft Purview qui aide les organisations à découvrir, protéger et examiner les risques données sensibles dans leur patrimoine numérique. Plutôt que de se concentrer sur l’infrastructure ou les points de terminaison, Gestion de la posture de sécurité des données se concentre sur les données elles-mêmes, en identifiant où elles résident, qui peut y accéder, comment elles sont utilisées et si elles sont correctement protégées. Il utilise l’IA pour analyser les modèles d’accès, les comportements de partage et les écarts de stratégie afin de faire apparaître les risques actionnables et de recommander des étapes de correction.

Gestion de la posture de sécurité des données répond à un défi croissant dans les espaces de travail d’aujourd’hui pilotés par l’IA : la complexité et le volume croissants de données compliquent la tâche des équipes de sécurité pour maintenir la visibilité et le contrôle. L’application résout ce problème en regroupant les insights de plusieurs solutions Microsoft Purview, notamment la protection contre la perte de données (DLP), la gestion des risques internes, la protection des informations avec des étiquettes de confidentialité et des Enquêtes sur la sécurité des données , en une seule vue pour la surveillance des risques de données, la couverture des stratégies et les tendances de posture. Cette approche unifiée remplace la nécessité de plusieurs outils et audits manuels, ce qui permet aux administrateurs de combler plus efficacement les lacunes de sécurité des données.

Gestion de la posture de sécurité des données est conçu pour fonctionner de manière fiable dans les environnements d’entreprise où les organisations doivent surveiller et protéger données sensibles dans plusieurs emplacements. L’application inclut une expérience de Microsoft Security Copilot incorporée qui permet à ces utilisateurs de poser des questions en langage naturel sur leur posture de sécurité des données, ainsi que des agents IA à partir de Security Copilot qui peuvent prendre des mesures de correction guidées sur les risques détectés. Pour une présentation générale, consultez la vidéo Microsoft Mechanics : Nouvelle Gestion de la posture de sécurité des données.

Termes clés

La liste suivante fournit un glossaire des termes clés liés à Gestion de la posture de sécurité des données :

Observabilité de l’IA : fonctionnalité au sein de Gestion de la posture de sécurité des données qui fournit un inventaire des applications IA et des agents ayant une activité récente, montrant combien sont à haut risque et le total avec des interactions sensibles, ainsi qu’une répartition des agents individuels et des stratégies qui les régissent.

Stratégie de regroupement : stratégie qui capture les invites et les réponses des interactions IA pour Copilot dans Fabric et Security Copilot, et pour les applications IA non-Copilot, afin qu’elles puissent être gérées dans les solutions Microsoft Purview.

Interactions Copilot : Requêtes et réponses des copilotes et des agents pris en charge par Microsoft Purview pour les protections de conformité et de sécurité des données. Inclut Microsoft 365 Copilot, Security Copilot, Copilot dans Fabric, Copilot Studio.

Protection contre la perte de données (DLP) : solution Microsoft Purview qui permet d’empêcher les utilisateurs de partager de manière inappropriée des données sensibles à l’aide de techniques d’analyse de contenu, notamment la mise en correspondance mot clé, l’évaluation des expressions et les algorithmes de Machine Learning.

Évaluation des risques liés aux données : analyse automatisée ou personnalisée qui identifie et aide à résoudre les risques potentiels de surpartage des données, en particulier pour les sites SharePoint et les espaces de travail Fabric. Les évaluations par défaut s’exécutent chaque semaine pour les 100 principaux sites en fonction de l’utilisation.

Objectifs de sécurité des données : flux de travail guidés dans Gestion de la posture de sécurité des données qui représentent chacun un objectif de sécurité spécifique, comme empêcher l’exposition des données dans les interactions Copilot ou empêcher le surpartage. Chaque objectif regroupe les solutions Microsoft Purview pertinentes et les actions hiérarchisées.

Agent de posture de sécurité des données : agent Microsoft Security Copilot exclusif à la version actuelle de Gestion de la posture de sécurité des données qui utilise la recherche en langage naturel dans les fichiers dans les interactions SharePoint, OneDrive, Teams, Exchange et Copilot. Il est conçu pour les vérifications préalables à l’enquête plutôt que pour les cas formels.

Gestion des risques internes : solution Microsoft Purview qui utilise un service intégré et des indicateurs tiers pour aider à identifier, trier et agir sur les activités potentiellement risquées des utilisateurs dans un organization.

Stratégie en un clic : stratégie préconfigurée dans Gestion de la posture de sécurité des données qui peut être activée en un seul clic pour obtenir rapidement des insights et protéger les données, sans nécessiter de configuration manuelle de la stratégie.

Promptbook : séquence intégrée d’invites pour Microsoft Security Copilot qui permet aux utilisateurs d’examiner rapidement des scénarios de sécurité des données spécifiques, tels que le comportement des utilisateurs à risque ou la protection données sensibles.

Security Copilot : Microsoft Security Copilot et ses agents est une solution de sécurité générative basée sur l’IA qui aide les professionnels de la sécurité des données à examiner les incidents de sécurité et à y répondre. Dans Gestion de la posture de sécurité des données, il fournit une expérience d’invite ouverte pour poser des questions en langage naturel sur la sécurité des données.

Étiquette de confidentialité : étiquette de Protection des données Microsoft Purview qui peut être appliquée au contenu pour définir et appliquer des stratégies de protection pour les données sensibles sur les clouds, les applications et les appareils.

Fonctionnalités clés

Les fonctionnalités clés décrites ici décrivent ce que Gestion de la posture de sécurité des données est conçu pour effectuer et comment il effectue les tâches prises en charge.

  • Tableau de bord de la posture de sécurité des données : page d’accueil centrale qui fournit un accès immédiat aux métriques de posture clés, les principaux objectifs à atteindre en fonction du risque, une instantané de l’utilisation des données dans le patrimoine de données et un graphique de tendance sur 30 jours de la posture de sécurité des données de l’organization. Les utilisateurs peuvent interagir directement avec Security Copilot via des invites suggérées sur cette page.

  • Objectifs de sécurité des données avec flux de travail guidés : cartes sélectionnables qui représentent chacune un objectif de sécurité spécifique, comme empêcher l’exposition des données dans les interactions Copilot, empêcher le surpartage des données sensibles, empêcher l’exfiltration vers des emplacements à risque et découvrir données sensibles. Chaque objectif fournit un flux de travail de bout en bout avec des actions hiérarchisées, des stratégies en un clic et un suivi de la progression, afin que les utilisateurs puissent se concentrer sur l’obtention des résultats plutôt que sur les solutions distinctes.

  • Observabilité de l’IA : inventaire des applications et des agents IA ayant une activité au cours des 30 derniers jours, indiquant le nombre d’applications à risque élevé et le total avec des interactions sensibles. Fournit une répartition des agents individuels, de leurs activités et des stratégies qui les régissent, ce qui permet aux administrateurs de surveiller les risques tels que le surpartage, l’exfiltration et les modèles d’accès inhabituels.

  • Évaluations des risques liés aux données : analyses automatisées et personnalisées qui identifient les risques potentiels de surpartage des données. Les évaluations par défaut s’exécutent chaque semaine pour les 100 principaux sites SharePoint en fonction de l’utilisation. Les évaluations personnalisées peuvent cibler des utilisateurs, des sites ou des espaces de travail Fabric spécifiques. Les résultats incluent des options de correction telles que la restriction de l’accès par étiquette, la création de stratégies d’étiquetage automatique ou la création de stratégies de rétention.

  • Recommandations de sécurité des données et actions de correction : insights et recommandations générés à partir des données traitées qui aident les administrateurs à créer ou à affiner des stratégies de gestion des risques internes et DLP. Inclut des stratégies en un clic pour un déploiement rapide directement à partir du workflow Gestion de la posture de sécurité des données.

  • Rapports et analyses : suit la posture de sécurité des données de l’organization au fil du temps avec des rapports résumant l’utilisation des étiquettes de confidentialité, la couverture de la stratégie DLP, le comportement des utilisateurs à risque et l’activité des applications IA. Les rapports améliorés fournissent un filtrage avancé, des vues personnalisables et des fonctionnalités d’exportation pour prendre en charge les exigences de conformité.

  • Explorateur d’activités : fournit une visibilité détaillée de l’activité liée au contenu, notamment les interactions ia (invites, réponses et informations sensibles détectées), les correspondances de règles DLP, les visites de sites web IA et les détections de types d’informations sensibles. Prend en charge le filtrage par catégories de charge de travail, telles que les expériences Copilot, les applications IA d’entreprise et d’autres applications IA.

  • Agent de posture de sécurité des données : agent basé sur l’IA provenant de Microsoft Security Copilot et qui utilise la recherche en langage naturel pour rechercher des données sensibles dans les interactions SharePoint, OneDrive, Teams, Exchange et Copilot. Il fournit des nombres d’éléments, des classifications d’étiquettes de confidentialité et des évaluations de niveau de risque, ainsi que des rapports d’insights exportables. Cet agent est conçu pour des vérifications rapides et préalables à l’examen.

  • Expérience Security Copilot incorporée : expérience d’invite ouverte dans laquelle les utilisateurs peuvent poser des questions en langage naturel sur leur posture de sécurité des données. Inclut des guides intégrés pour l’investigation des utilisateurs à risque et la protection données sensibles, ainsi qu’une galerie d’invites avec des invites classées pour les alertes, les données à risque, les utilisateurs à risque, les activités suspectes et les données sensibles.

  • Correction basée sur l’agent IA : sous l’aide de l’utilisateur, les agents IA peuvent prendre des mesures directes sur les risques détectés, tels que la suppression de liens de partage public, l’application de stratégies DLP ou la révocation d’autorisations. Les agents de triage pilotés par l’IA passent en revue les alertes de DLP et de gestion des risques internes, en filtrant le bruit et en mettant en évidence les menaces critiques. Toutes les actions de l’agent sont auditées et soumises à la révision et à l’approbation de l’utilisateur.

Utilisations prévues

Gestion de la posture de sécurité des données peuvent être utilisés dans plusieurs scénarios dans différents secteurs d’activité. Voici quelques exemples de cas d’usage :

  • Surveillance de la posture de sécurité des données au sein de l’entreprise : un responsable de la conformité d’un organization de services financiers utilise Gestion de la posture de sécurité des données pour obtenir une vue unifiée de ses données sensibles dans différents emplacements. Le tableau de bord de posture expose les métriques et les tendances clés, ce qui permet à l’agent d’identifier rapidement les données sensibles non protégées et de suivre les améliorations au fil du temps. Cela évite d’avoir à passer en revue manuellement plusieurs outils et tableaux de bord distincts.

  • Prévention du surpartage avant le déploiement de Microsoft 365 Copilot : un administrateur informatique se préparant à un déploiement Microsoft 365 Copilot effectue des évaluations des risques de données pour identifier les sites SharePoint avec du contenu potentiellement surpartagé. Gestion de la posture de sécurité des données surface les sites où les fichiers sensibles ont des liens de partage étendus ou manquent d’étiquettes de confidentialité, et fournit des options de correction en un clic, telles que la restriction de l’accès ou la création de stratégies d’étiquetage automatique. Cela permet aux organization de réduire l’exposition des données avant que les outils IA commencent à traiter ce contenu.

  • Examen du comportement des utilisateurs à risque avec une analyse assistée par IA : un analyste de la sécurité des données reçoit une alerte indiquant qu’un utilisateur effectue des activités de partage de fichiers inhabituelles. À l’aide de l’expérience de Security Copilot incorporée, l’analyste exécute le manuel d’invite d’investigation de l’utilisateur à risque, qui analyse automatiquement les activités données sensibles de l’utilisateur, identifie les modèles d’exfiltration potentiels, vérifie les anomalies et suggère des actions de protection, le tout par le biais d’une séquence d’invites en langage naturel.

  • Gouvernance de l’utilisation des applications IA dans l’organization : une équipe de sécurité d’un organization de santé utilise l’observabilité de l’IA pour surveiller les applications ia et les agents avec lesquels les employés interagissent, lesquels de ces interactions impliquent des données de patients sensibles et si des stratégies DLP appropriées sont en place. L’équipe utilise des objectifs de sécurité des données pour créer des stratégies ciblées qui empêchent le partage d’informations d’intégrité sensibles avec des applications IA non autorisées.

  • Répondre aux exigences de conformité : une équipe de conformité d’une agence gouvernementale utilise Gestion de la posture de sécurité des données rapports et l’explorateur d’activités pour démontrer que données sensibles est correctement étiqueté, protégé par des stratégies DLP et surveillé pour les activités à risque. Les fonctionnalités d’exportation et les vues personnalisables permettent à l’équipe de générer une documentation prête pour l’audit conforme à ses obligations réglementaires.

  • Découverte de données sensibles non protégées dans de nouveaux environnements : une organization la prise en main de Microsoft Purview utilise Gestion de la posture de sécurité des données pour analyser automatiquement les données et les activités des utilisateurs, en obtenant des insights et des recommandations de base axés sur données non protégées. Cela permet aux organization d’établir rapidement des stratégies DLP, de protection des informations et de gestion des risques internes sans effectuer une analyse manuelle approfondie.

Gestion de la posture de sécurité des données n’est pas destiné à être utilisé comme assistant d’IA à usage général, pour des scénarios non liés à la sécurité des données au sein de Microsoft Purview, ni pour des enquêtes juridiques formelles (qui nécessitent des solutions dédiées telles que eDiscovery et Enquêtes sur la sécurité des données ).

Modèles et données d’entraînement

Gestion de la posture de sécurité des données tire parti des agents IA existants et des fonctionnalités IA. Par conséquent, elle dépend de toute configuration externe qu’ils fournissent. Par exemple, le choix du modèle pour Microsoft Security Copilot pour l’expérience d’invite en langage naturel incorporé. Gestion de la posture de sécurité des données utilise également l’analyse du contenu dans la protection contre la perte de données pour détecter les informations sensibles par le biais d’algorithmes de mise en correspondance mot clé, d’évaluation d’expressions et d’apprentissage automatique. Pour plus d’informations, reportez-vous aux cartes d’application et à la documentation liées.

Performances

Gestion de la posture de sécurité des données est conçu pour fonctionner de manière fiable dans les environnements d’entreprise où les organisations doivent surveiller et protéger données sensibles dans plusieurs emplacements. L’application traite et met en corrélation les données des solutions Microsoft Purview existantes, notamment la DLP, la gestion des risques internes et la protection des informations, pour générer des insights, des recommandations et des métriques de posture. Les performances sont optimisées pour les organisations qui utilisent les services cloud Microsoft pris en charge, et les résultats s’améliorent à mesure que de plus en plus de solutions Microsoft Purview sont configurées et que davantage de données sont disponibles pour analyse.

L’application accepte des entrées textuelles pour l’ensemble de ses fonctionnalités. Les utilisateurs interagissent avec Gestion de la posture de sécurité des données via l’interface du portail Microsoft Purview, où ils peuvent naviguer dans les tableaux de bord, configurer des stratégies et exécuter des évaluations des risques liés aux données. L’expérience de Security Copilot incorporée accepte les invites de texte en langage naturel et retourne des réponses textuelles, y compris les résumés de données, l’analyse des risques et les actions recommandées. L’agent de posture de sécurité des données accepte les requêtes de recherche en langage naturel et retourne des résultats structurés, y compris le nombre d’éléments, les classifications d’étiquettes de confidentialité et les évaluations de niveau de risque, avec une option permettant d’exporter des rapports en tant que documents Word.

Gestion de la posture de sécurité des données prend en charge les langues disponibles dans l’interface du portail Microsoft Purview. L’expérience Security Copilot est conçue et évaluée principalement pour les invites et les réponses en anglais. La détection des types d’informations sensibles prend en charge plusieurs langues, comme indiqué dans les définitions de type d’informations sensibles individuelles. Les utilisateurs doivent savoir que les performances de l’invite en langage naturel et des fonctionnalités de recherche peuvent varier lorsque vous utilisez des langues autres que l’anglais.

Après l’installation initiale, Gestion de la posture de sécurité des données nécessite du temps pour traiter les données organisationnelles. Les temps d’analyse varient en fonction de la taille du organization et de la quantité de données et d’activités à traiter, et le traitement initial peut prendre jusqu’à trois jours. Les nouvelles stratégies nécessitent au moins 24 heures pour collecter des données avant que les résultats n’apparaissent. Les évaluations des risques liés aux données nécessitent au moins 48 heures après l’achèvement avant que les résultats mis à jour soient disponibles. L’agent de posture de sécurité des données peut rechercher jusqu’à 1 Go de contenu par requête, et les recherches restreintes ciblant des utilisateurs ou des sites spécifiques sont beaucoup plus rapides que les recherches à l’échelle du locataire.

Limitations

Il est essentiel de comprendre les limites de Gestion de la posture de sécurité des données pour déterminer qu’elle est utilisée dans des limites sûres et efficaces. Bien que nous encourageons les clients à tirer parti de Gestion de la posture de sécurité des données dans leurs solutions ou applications innovantes, il est important de noter que Gestion de la posture de sécurité des données n’a pas été conçu pour tous les scénarios possibles. Nous encourageons les utilisateurs à se référer au Code de conduite microsoft Enterprise AI Services (pour les organisations) ou à la section Code de conduite du Contrat de services Microsoft (pour les particuliers) ainsi que les considérations suivantes lors du choix d’un cas d’usage :

  • Étendue de la sécurité des données : l’expérience Security Copilot dans Gestion de la posture de sécurité des données est conçue pour répondre aux questions sur la sécurité des données associées à la gestion des risques internes, à la Information Protection et à la protection contre la perte de données dans Microsoft Purview. Toutes les autres solutions Purview sont actuellement hors de portée pour Gestion de la posture de sécurité des données insights. Les utilisateurs doivent diriger les questions en dehors de ces zones vers les outils appropriés spécifiques à la solution.

  • Couverture des données : l’onglet Standard de l’Explorateur de ressources est filtré par emplacements Microsoft et non-Microsoft. Les emplacements Microsoft incluent actuellement Microsoft 365 uniquement. Les emplacements non-Microsoft sont rendus possibles par l’intégration avec des solutions partenaires. Les organisations disposant de données significatives dans des environnements qui ne sont pas inclus doivent savoir que la visibilité via l’Explorateur de ressources peut être limitée et doit être complétée par d’autres outils si nécessaire.

  • Limites du volume d’évaluation des risques liés aux données : un maximum de 200 000 éléments par emplacement s’applique aux évaluations des risques de données personnalisées et par défaut. Le nombre de fichiers signalés peut ne pas être précis lorsqu’il y a plus de 100 000 fichiers par emplacement. Les organisations disposant de sites SharePoint très volumineux doivent envisager d’exécuter plusieurs évaluations ciblées. En outre, OneDrive n’est actuellement pas pris en charge pour l’analyse au niveau de l’élément, et les évaluations personnalisées prennent en charge un maximum de 10 sites SharePoint pour l’analyse au niveau de l’élément.

  • Exigences en matière de temps de traitement : une fois l’évaluation personnalisée des risques liés aux données terminée, les résultats nécessitent au moins 48 heures pour être disponibles et ne sont pas mis à jour après ce point. Une nouvelle évaluation est nécessaire pour voir les modifications. Les nouvelles stratégies nécessitent au moins 24 heures avant l’affichage des données. Les utilisateurs doivent planifier à l’avance et éviter de s’attendre à des résultats en temps réel des nouvelles évaluations ou stratégies créées.

  • Exhaustivité des données de l’Explorateur d’activités : l’événement d’interaction IA peut ne pas toujours afficher le texte d’invite et de réponse. Dans certains cas, les invites et les réponses couvrent des entrées consécutives. Lorsqu’un utilisateur n’a pas de boîte aux lettres hébergée dans Exchange Online, aucune invite ou réponse n’est affichée. Les notes générées par l’IA du facilitateur Microsoft peuvent ne pas afficher d’invites ou de réponses. Les utilisateurs doivent être conscients de ces lacunes lorsqu’ils s’appuient sur l’Explorateur d’activités à des fins de conformité ou d’investigation.

  • Contraintes de l’agent de posture de sécurité des données : l’agent prend en charge les recherches de contenu jusqu’à 1 Go de données, mais ne prend pas en charge les recherches basées sur les métadonnées. Si aucune période n’est spécifiée, les résultats par défaut sont les 7 derniers jours. L’agent est conçu pour les vérifications préalables à l’examen et ne remplace pas les outils d’investigation formels tels que eDiscovery, audit ou Enquêtes sur la sécurité des données .

  • Prise en charge linguistique : l’expérience Security Copilot et l’agent de posture de sécurité des données sont conçus et évalués principalement pour les invites en anglais. L’utilisation d’autres langages peut entraîner une précision réduite ou des réponses incomplètes. Les utilisateurs doivent faire preuve de prudence lorsqu’ils fonctionnent en dehors de l’étendue de langage prévue.

  • Précision de la réponse de l’IA générative : comme avec tous les systèmes d’IA générative, Security Copilot réponses dans Gestion de la posture de sécurité des données peuvent parfois contenir des informations inexactes ou incomplètes. Les utilisateurs doivent vérifier les insights générés par l’IA par rapport aux données réelles avant d’effectuer des actions conséquentes basées sur ces réponses.

Évaluations

Les évaluations des performances et de la sécurité évaluent si les applications IA fonctionnent de manière fiable et sécurisée en examinant des facteurs tels que la base, la pertinence et la cohérence, tout en identifiant les risques liés à la génération de contenu nuisible. Les évaluations suivantes ont été effectuées avec des composants de sécurité déjà en place, qui sont également décrits dans Composants de sécurité et atténuations.

Gestion de la posture de sécurité des données a été évalué à l’aide de méthodes d’évaluation personnalisées développées par l’équipe produit. L’évaluation s’est concentrée sur la précision de l’expérience de Security Copilot incorporée lors de la réponse aux questions en langage naturel sur la sécurité des données.

Le jeu de données d’évaluation comprenait des invites pertinentes identifiées par l’équipe produit et les clients, y compris un ensemble de tests étendu d’invites basées sur des schémas et des descriptions de table. Microsoft a évalué les performances à l’aide d’une métrique de taux de précision : une réponse est considérée comme exacte si la requête générée fournit les informations exactes demandées dans l’invite. L’équipe a testé une série de scénarios de sécurité des données couvrant la protection contre la perte de données, la protection des informations et les insights de gestion des risques internes pour vérifier que les réponses Security Copilot sont prises en charge par les données sous-jacentes et adaptées au contexte à la question de l’utilisateur.

Un résultat idéal est celui où la réponse Security Copilot retourne exactement les informations demandées, ancrées dans les données réelles de l’organization, sans contenu fabriqué ou trompeur. Un résultat non optimal serait une réponse qui retourne des données inexactes, interprète mal la question de l’utilisateur ou fournit des informations en dehors de l’étendue des solutions de sécurité des données prises en charge. Le processus d’évaluation est itératif, l’équipe produit affinant les ensembles d’invites et les seuils de précision en fonction des commentaires des clients et des modèles d’utilisation réels.

Composants de sécurité et atténuations

  • Contrôle d’accès en fonction du rôle : Gestion de la posture de sécurité des données applique des autorisations granulaires via des groupes de rôles Microsoft Entra et Microsoft Purview. Différentes activités nécessitent des rôles spécifiques, tels que Administrateur de conformité pour la modification, Visionneuse de sécurité des données pour l’utilisation de Security Copilot et Visionneuse de contenu Explorer de contenu pour afficher les invites et les réponses d’interaction IA. Cela garantit que les utilisateurs peuvent uniquement accéder aux données et prendre des mesures appropriées à leur rôle, ce qui réduit le risque d’accès non autorisé aux informations sensibles.

  • Journalisation d’audit complète : toutes les actions automatisées effectuées par les agents IA dans Gestion de la posture de sécurité des données sont enregistrées dans les journaux d’audit. Cela inclut des actions telles que la suppression de liens de partage, l’application de stratégies et la révocation d’autorisations. Les journaux d’audit et les fonctionnalités de l’Explorateur d’activités fournissent une piste complète des interactions avec les applications et les agents IA, prenant en charge les enquêtes de conformité, la réponse aux incidents et la responsabilité.

  • Révision et approbation humaines pour les actions de l’agent : les utilisateurs conservent toujours le contrôle du comportement de l’agent IA dans Gestion de la posture de sécurité des données. Les agents de triage pilotés par l’IA et l’agent de posture de sécurité des données présentent des recommandations et des résultats, mais les utilisateurs passent en revue, approuvent ou personnalisent toutes les actions automatisées avant qu’elles ne prennent effet. Les options « Afficher l’activité de l’agent » dans l’interface permettent d’accéder facilement à l’activité de l’agent à des fins de supervision.

  • Traitement de l’analytique d’adhésion : Gestion de la posture de sécurité des données nécessite l’adhésion explicite avant de traiter les données organisationnelles. L’analytique dans la gestion des risques internes et la DLP doivent être activées pour que Gestion de la posture de sécurité des données puissent générer des insights. Cela garantit que les organisations prennent une décision délibérée de partager des données à des fins d’analyse et sont conscientes du traitement qui a lieu.

  • Fonctionnalités d’IA étendues : l’expérience Security Copilot dans Gestion de la posture de sécurité des données est délibérément étendue aux rubriques de sécurité des données associées à la gestion des risques internes, à la Information Protection et à la protection contre la perte de données. Les questions en dehors de cette portée ne sont pas traitées, ce qui réduit le risque que l’IA génère des réponses sur des sujets où elle manque de données fiables. L’agent de posture de sécurité des données est également étendu aux recherches de contenu dans Microsoft 365 et est limité à 1 Go de contenu par requête.

  • Classification au niveau du risque pour les résultats de la recherche : l’agent de posture de sécurité des données attribue un niveau de risque à chaque résultat de recherche en fonction de la proximité du contenu avec l’invite de l’utilisateur. Les résultats sont classés pour aider les utilisateurs à hiérarchiser et à se concentrer sur les résultats les plus pertinents. Lorsque l’agent ne peut pas déterminer le niveau de risque, les éléments sont marqués comme « non classés », ce qui fournit une transparence sur le niveau de confiance de l’agent.

  • Triage des alertes et réduction du bruit : les agents de triage pilotés par l’IA examinent les alertes DLP et Insider Risk Management et les catégorisent comme « nécessite une attention », « moins urgent » ou « non classé ». Ce filtrage réduit la fatigue des alertes et aide les analystes de sécurité à se concentrer sur les menaces réelles plutôt que sur les faux positifs.

  • Conception de protection de la confidentialité : la gestion des risques internes, qui alimente les données dans Gestion de la posture de sécurité des données, inclut des contrôles de confidentialité tels que la pseudonymisation et l’accès basé sur les rôles pour garantir la confidentialité au niveau de l’utilisateur tout en permettant l’analyse des risques. Le composant Security Copilot suit les pratiques en matière de confidentialité et de sécurité des données décrites dans la documentation Microsoft Security Copilot sur la confidentialité et la sécurité des données.

  • Mécanisme de commentaires dans le produit : les utilisateurs peuvent fournir des commentaires sur chaque réponse Security Copilot en la marquant comme « semble correcte », « a besoin d’amélioration » ou « inappropriée ». Cette boucle de commentaires aide Microsoft à améliorer en permanence la qualité et la sécurité des réponses générées par l’IA.

Bonnes pratiques pour le déploiement et l’adoption de Gestion de la posture de sécurité des données

L’IA responsable est un engagement partagé entre Microsoft et ses clients. Bien que Microsoft crée des applications IA avec la sécurité, l’équité et la transparence à la base, les clients jouent un rôle essentiel dans le déploiement et l’utilisation de ces technologies de manière responsable dans leur propre contexte. Pour prendre en charge ce partenariat, nous proposons les meilleures pratiques suivantes pour les déploiements et les utilisateurs finaux afin d’aider les clients à implémenter efficacement une IA responsable.

Les déploiements et les utilisateurs finaux doivent :

  • Faites preuve de prudence et évaluez les résultats lors de l’utilisation de Gestion de la posture de sécurité des données pour prendre des décisions consécutives ou dans des domaines sensibles : les décisions consécutives sont celles qui peuvent avoir un impact juridique ou significatif sur l’accès d’une personne à l’éducation, à l’emploi, aux plateformes financières, aux prestations gouvernementales, aux soins de santé, au logement, à l’assurance, aux plateformes juridiques, ou qui pourraient entraîner une préjudice physique, psychologique ou financier. Les domaines sensibles, tels que les plateformes financières, les soins de santé et le logement, nécessitent une attention particulière en raison du risque d’impact disproportionné sur différents groupes de personnes. Lorsque vous utilisez l’IA pour prendre des décisions dans ces domaines, assurez-vous que les parties prenantes concernées peuvent comprendre comment les décisions sont prises, faire appel des décisions et mettre à jour les données d’entrée pertinentes.

  • Évaluer les considérations juridiques et réglementaires : les clients doivent évaluer les obligations légales et réglementaires spécifiques potentielles lors de l’utilisation de plateformes et de solutions IA, qui peuvent ne pas être appropriées pour une utilisation dans tous les secteurs ou scénarios. En outre, les plateformes ou solutions IA ne sont pas conçues pour et ne peuvent pas être utilisées de manière interdite dans les conditions d’utilisation applicables et les codes de conduite pertinents.

Les utilisateurs finaux doivent :

  • Exercer la supervision humaine le cas échéant : la supervision humaine est une protection importante lors de l’interaction avec les applications IA. Bien que nous améliorions continuellement nos applications IA, l’IA peut toujours faire des erreurs. Les sorties générées peuvent être inexactes, incomplètes, biaisées, mal alignées ou non pertinentes par rapport à vos objectifs prévus. Cela peut se produire pour diverses raisons, telles que l’ambiguïté dans les entrées ou les limitations des modèles sous-jacents. Par conséquent, les utilisateurs doivent examiner les réponses générées par Gestion de la posture de sécurité des données et vérifier qu’elles correspondent à leurs attentes et à leurs exigences.

  • Soyez conscient du risque de dépendance excessive : une dépendance excessive à l’égard de l’IA se produit lorsque les utilisateurs acceptent des sorties IA incorrectes ou incomplètes, principalement parce que les erreurs dans les sorties d’IA peuvent être difficiles à détecter. Pour l’utilisateur final, une dépendance excessive peut entraîner une baisse de productivité, une perte de confiance, un abandon de l’application, une perte financière, des dommages psychologiques, des dommages physiques, entre autres. Dans le contexte de la Gestion de la posture de sécurité des données, une dépendance excessive peut signifier agir sur une information Security Copilot inexacte sans la vérifier par rapport aux données réelles, ce qui peut entraîner des changements de stratégie mal orientés ou des risques de sécurité manqués.

  • Étendue Security Copilot questions aux domaines pris en charge : pour obtenir de meilleurs résultats, posez des questions sur les rubriques relatives à la sécurité des données associées à la gestion des risques internes, aux Information Protection et à la protection contre la perte de données. Les questions situées en dehors de ces zones peuvent renvoyer des réponses incomplètes ou inexactes, car elles se trouvent en dehors des données Gestion de la posture de sécurité des données est conçue pour être analysée.

  • Utiliser des invites spécifiques et ciblées : lorsque vous utilisez l’expérience Security Copilot ou l’agent de posture de sécurité des données, fournissez des invites claires et spécifiques qui incluent des détails pertinents tels que les noms d’utilisateur, les périodes et les emplacements des données. Par exemple, au lieu de demander « Montrer les risques de sécurité », demandez « Afficher toutes les activités données sensibles effectuées par user@contoso.com au cours des 30 derniers jours ». Des invites plus spécifiques produisent des résultats plus précis et exploitables.

  • Fournir des commentaires pour améliorer la qualité : utilisez l’option commentaires dans le produit pour marquer Security Copilot réponses comme « semble correcte », « a besoin d’amélioration » ou « inappropriée ». Ces commentaires aident Microsoft à identifier et à résoudre les problèmes de qualité dans les réponses générées par l’IA.

Les déployeurs doivent :

  • Configurer les autorisations appropriées avant d’accorder l’accès : Attribuez les rôles minimum requis à chaque utilisateur en fonction de ses responsabilités. Utilisez le tableau détaillé des autorisations dans la documentation des autorisations Gestion de la posture de sécurité des données pour déterminer les groupes de rôles nécessaires pour chaque activité. La restriction de l’accès réduit le risque que les utilisateurs non autorisés consultent données sensibles ou prennent des mesures involontaires.

  • Effectuez toutes les tâches d’installation avant de vous appuyer sur les insights : assurez-vous que les stratégies d’audit, d’analyse et de collecte sont correctement configurées avant d’évaluer Gestion de la posture de sécurité des données insights. Une configuration incomplète peut entraîner des données manquantes et des métriques de posture inexactes. Prévoyez un temps de traitement suffisant (jusqu’à trois jours pour les analyses initiales, au moins 24 heures pour les nouvelles stratégies) avant de prendre des décisions basées sur Gestion de la posture de sécurité des données données.

  • Utiliser des recherches restreintes pour un traitement efficace : lorsque vous utilisez l’agent de posture de sécurité des données, configurez les recherches pour cibler des utilisateurs, des groupes ou des sites spécifiques plutôt que d’exécuter des analyses à l’échelle du locataire. Les recherches restreintes sont beaucoup plus rapides et plus efficaces, ce qui réduit le temps de traitement et produit des résultats plus ciblés.

  • Passer en revue et affiner les stratégies en un clic après le déploiement : les stratégies en un clic fournissent un point de départ utile, mais elles doivent être examinées et personnalisées en fonction des exigences spécifiques de votre organization. Après le déploiement initial, surveillez les résultats des stratégies via Gestion de la posture de sécurité des données rapports et l’Explorateur d’activités, puis ajustez les paramètres de stratégie dans la solution correspondante (DLP, Gestion des risques internes ou Information Protection) pour qu’ils correspondent à vos organizationdes besoins en matière de tolérance au risque et de conformité.

  • Établissez une cadence de révision régulière : utilisez Gestion de la posture de sécurité des données tendances et rapports de posture pour suivre la posture de sécurité des données de votre organization au fil du temps. Établissez une cadence régulière pour examiner les évaluations des risques liés aux données, la couverture des stratégies et les métriques d’observabilité de l’IA. Les révisions régulières permettent d’identifier les risques émergents, les lacunes de stratégie et les changements de comportement des utilisateurs avant qu’ils ne deviennent des incidents de sécurité.

  • Planifier la configuration de la stratégie de collecte : si votre organization doit capturer des invites et des réponses de Copilot dans Fabric et Security Copilot, et pour les applications IA non-Copilot, configurez des stratégies de collecte avec l’option de capture de contenu sélectionnée. Pour les applications qui utilisent ces stratégies de collecte, les événements d’interaction IA dans l’Explorateur d’activités n’affichent pas le texte d’invite et de réponse, ce qui limite l’utilité des données pour la surveillance de la conformité.

En savoir plus sur Gestion de la posture de sécurité des données

Pour obtenir des conseils supplémentaires ou pour en savoir plus sur l’utilisation responsable des Gestion de la posture de sécurité des données, nous vous recommandons de consulter la documentation suivante :

En savoir plus sur l’IA responsable