Données, confidentialité et sécurité pour Microsoft 365 Copilot pour Viva Glint

Microsoft 365 Copilot pour Viva Glint est un outil d’analyse basé sur l’IA qui aide les utilisateurs rh et les responsables de l’organisation à comprendre rapidement les commentaires des employés et à y réagir. Copilot pour Viva Glint coordonne les composants suivants :

  • Modèles de langage volumineux hébergés par Microsoft fournis via Azure service OpenAI
  • Réponses brutes à l’enquête, y compris les commentaires et les évaluations
  • Questions d’enquête et configuration du programme
  • Filtres démographiques basés sur les autorisations de l’utilisateur

Importante

  • Les réponses brutes à l’enquête, les invites et les attributs utilisateur des répondants traités par Copilot pour Viva Glint ne sont pas utilisés pour former les llms de base, y compris les réponses brutes à l’enquête, les invites et les attributs utilisateur des répondants utilisés par Microsoft 365 Copilot.
  • Les réponses brutes à l’enquête et les attributs d’utilisateur des répondants stockés dans Viva Glint ne sont pas utilisés pour entraîner les llms de base.
  • Copilot pour Viva Glint respecte les autorisations d’accès aux données et les seuils de confidentialité existants de votre organization.

Qui utilise Copilot pour Viva Glint

Copilot pour Viva Glint est conçu pour plusieurs rôles organisationnels :

  • Administrateurs et responsables rh : résumer les jeux de données volumineux pour identifier les insights clés et prendre en charge les demandes des parties prenantes
  • Responsables organisationnels : analyser les commentaires de leurs équipes et découvrir les modèles dans les populations d’employés
  • Responsables : Identifier les thèmes des commentaires de l’équipe pour guider les conversations et la planification des actions

Présentation de cet article

Cet article fournit des informations sur les données, la confidentialité et la sécurité de Microsoft 365 Copilot pour Viva Glint, y compris des réponses aux questions suivantes :

  • Quelle est la licence requise pour accéder à Copilot pour Viva Glint ?
  • Comment Copilot pour Viva Glint fonctionne-t-il avec Microsoft 365 Copilot dans des limites distinctes ?
  • Comment Copilot pour Viva Glint protège-t-il la confidentialité des données de commentaires des employés ?
  • Quelles sont les protections des données d’entreprise qui s’appliquent à Copilot pour Viva Glint ?
  • Où les données sont-elles stockées et traitées lors de l’utilisation de Copilot pour Viva Glint ?
  • Comment Copilot pour Viva Glint aide-t-il les clients à répondre aux exigences de conformité réglementaire ?
  • Comment Microsoft examine-t-il Copilot pour Viva Glint pour une IA responsable ?
  • Quelles protections protègent contre le contenu nuisible et les attaques par injection d’invite ?

Critères de licence

  • Une licence pour Viva Glint, Microsoft Viva Suite ou Analyse du temps de travail et commentaires employés Microsoft Viva est requise pour accéder à Copilot pour Viva Glint.
  • Une licence pour Microsoft 365 Copilot n’est pas nécessaire pour accéder à Copilot pour Viva Glint.

Copilot pour Viva Glint et Microsoft 365 Copilot

Copilot pour Viva Glint fonctionne au sein d’une architecture de données dédiée pour le traitement des commentaires des employés et des données d’enquête. Cela est distinct des limites de traitement des données de Microsoft 365 Copilot, conçues pour prendre en charge l’isolation des données appropriée.

fonctionnalités Copilot pour Viva Glint

Lorsque vous utilisez Copilot pour Viva fonctionnalités Glint (telles que le résumé des commentaires dans Copilot pour Viva Glint), les réponses brutes aux enquêtes, les invites et les attributs utilisateur du répondant sont traités entièrement dans la limite du service Microsoft 365. Les réponses brutes à l’enquête, les invites et les attributs utilisateur des répondants ne sont pas partagés avec Microsoft 365 Copilot.

Copilot pour Viva Glint utilise des modèles de langage volumineux hébergés par Microsoft fournis via Azure service OpenAI. Les demandes de modèle sont traitées dans la limite de conformité Microsoft 365 de Microsoft à l’aide de l’infrastructure gérée par Microsoft.

Importante

  • Les réponses brutes à l’enquête, les invites et les attributs utilisateur des répondants traités par Copilot pour Viva Glint ne sont pas utilisés pour entraîner les llms de base.
  • Les réponses brutes à l’enquête et les attributs d’utilisateur des répondants stockés dans la base de données Viva Glint ne sont pas utilisés pour entraîner les llms de base.

Copilot pour Viva flux de données glint et limites de service

Comment Copilot pour Viva Glint protège la confidentialité des données des commentaires des employés

Copilot pour Viva Glint respecte les autorisations d’accès aux données et les protections de confidentialité existantes de votre organization. Lorsque Copilot résume les commentaires des employés, il applique les mêmes mécanismes de confidentialité que ceux qui protègent les rapports et les tableaux de bord Viva Glint.

Mécanismes de protection de la confidentialité

Viva Glint protège la confidentialité des répondants par le biais de trois mécanismes principaux :

Seuils de réponse minimum

Les résultats de l’enquête ne sont communiqués que lorsqu’un nombre minimal de réponses est reçu. La valeur par défaut est de 5 réponses pour les questions d’évaluation et de 10 réponses pour les commentaires. Les organisations peuvent configurer ces seuils par programme d’enquête pour équilibrer la protection de la confidentialité et les besoins en matière de rapports.

Contrôles d’accès en fonction du rôle

Copilot pour Viva Glint traite uniquement les résultats de l’enquête que l’utilisateur connecté a l’autorisation d’afficher dans Viva Glint comme configuré par l’administrateur du client. Le rôle de l’utilisateur dans la hiérarchie de création de rapports détermine l’accès. Si une équipe ne respecte pas le seuil de réponse minimal, la fonctionnalité glint Copilot pour Viva n’est pas disponible pour l’utilisateur ou Copilot pour Viva Glint informe l’utilisateur qu’elle ne peut pas fournir de résumé des réponses à l’enquête.

Seuils de suppression

Même lorsque les seuils de réponse minimaux sont atteints, les commentaires peuvent être supprimés si le filtrage par attributs démographiques peut permettre l’identification des répondants individuels. La logique de suppression de Viva Glint garantit que la comparaison des résultats filtrés ne peut pas révéler de réponses individuelles.

Comment Copilot applique les protections de confidentialité

Lorsque vous demandez à Copilot de résumer les commentaires :

  • Copilot peut uniquement accéder aux réponses, commentaires et évaluations bruts que l’utilisateur connecté a l’autorisation d’afficher comme configuré par l’administrateur.
  • Les résumés respectent les mêmes seuils de confidentialité que les rapports Viva Glint.
  • Si les réponses à l’enquête ne respectent pas les seuils de réponse minimaux, Copilot ne peut pas accéder à ces commentaires ni les résumer.
  • Le filtrage démographique dans Copilot suit les mêmes règles de suppression que les tableaux de bord Viva Glint.

Pour plus d’informations, consultez Protection de la confidentialité dans les rapports.

Protection des données d'entreprise

Copilot pour Viva Glint suit les mêmes principes de protection des données d’entreprise que Microsoft Viva et Microsoft 365. Ces protections sont conçues pour assurer la sécurité, la confidentialité et le contrôle des données client. Pour plus d’informations, consultez Sécurité Viva.

résidence des données Copilot pour Viva Glint

Copilot pour Viva Glint suit les mêmes engagements de résidence des données que Viva Glint pour le stockage et le traitement des données client.

Stockage des données client

Les données client (y compris les réponses aux enquêtes, les commentaires et les attributs utilisateur des répondants) sont stockées dans l’un des trois centres de données régionaux en fonction de l’emplacement de votre locataire Microsoft 365. Pour plus d’informations sur la résidence des données Viva Glint, consultez Résidence des données pour Viva Glint.

Traitement LLM et limite de données de l’UE

Lorsque Copilot pour Viva Glint appelle des modèles de langage volumineux hébergés par Microsoft pour traiter les réponses brutes aux enquêtes, les invites et les attributs utilisateur des répondants, le traitement est aligné sur les engagements de résidence des données de Viva Glint pour la région de votre locataire. Pour plus d’informations sur la résidence des données Viva Glint, consultez Résidence des données pour Viva Glint.

Comment Copilot pour Viva Glint prend en charge la conformité réglementaire

Copilot pour Viva Glint suit la même infrastructure de sécurité et de conformité que Viva Glint. Viva Glint fournit des contrôles et des protections qui aident votre organization à respecter ses obligations en vertu des réglementations applicables en matière de protection des données, telles que le Règlement général sur la protection des données (RGPD) de l’Union européenne. Pour plus d’informations, consultez Sécurité et conformité pour l’utilisation des données.

Loi sur l’IA de l’UE

Microsoft évalue ses services conformément aux classifications applicables de l’EU AI Act. Microsoft ne classe pas Copilot pour Viva Glint comme une solution IA à haut risque en vertu de la loi sur l’IA de l’UE. Copilot pour Viva Glint est conçu pour résumer les commentaires des employés pour les responsables des ressources humaines et de l’organisation, et n’effectue pas de fonctions telles que la prise de décisions affectant les conditions de relations professionnelles, l’identification biométrique, la gestion d’infrastructure critique ou d’autres activités qui pourraient placer dans la catégorie à haut risque telle que définie par la loi sur l’IA de l’UE. Pour plus d’informations sur l’approche de Microsoft en matière de conformité à la loi sur l’IA de l’UE, consultez Innover conformément à la loi sur l’IA de l’UE.

Révisions de l’IA responsable et de la sécurité des données pour Copilot pour Viva Glint

Copilot pour Viva fonctionnalités Glint reposent sur les mêmes bases de protection des données, de confidentialité, de sécurité et d’IA responsable qui régissent Microsoft 365 Copilot. Pour maintenir la confiance des clients et réduire le risque de préjudice, chaque version de fonctionnalité est évaluée par le biais de processus d’évaluation de l’impact de l’IA responsable et de révision de la sécurité des données conçus pour identifier, évaluer et atténuer les risques potentiels avant que les fonctionnalités ne soient disponibles.

Ces processus d’examen sont destinés à réduire les dommages qui peuvent résulter des systèmes d’IA dans des scénarios d’espace de travail, notamment :

  • Biais, iniquité ou résultats discriminatoires, en particulier dans les insights et les résumés liés aux personnes.
  • Préjudices au travail, tels que des inférences ou des jugements inappropriés sur le rendement des employés, l’état émotionnel ou les caractéristiques personnelles.
  • Contenu inexact ou trompeur généré par l’IA qui peut être sur approuvé ou mal appliqué.
  • Accès, exposition ou utilisation incorrecte des données non autorisés, y compris les risques liés à l’isolation des locataires et aux limites d’autorisation.
  • Risques de sécurité et de confidentialité susceptibles de compromettre la confidentialité, l’intégrité ou la résidence des données client.

Copilot pour Viva Glint est conçu pour aider à atténuer ces risques par le biais d’une approche de défense en profondeur qui combine une gouvernance d’IA responsable, des protections techniques et des contrôles de sécurité et de confidentialité.

Évaluation d’impact de l’IA responsable

Copilot pour Viva fonctionnalités glint sont soumises à une évaluation d’impact de l’IA responsable alignée sur les principes et les normes de l’IA responsable de Microsoft. Ces évaluations sont conçues pour évaluer la façon dont les fonctionnalités d’IA peuvent affecter les utilisateurs et les organisations dans des scénarios réels et pour identifier les dommages potentiels au début du cycle de vie du produit.

Comme décrit dans Microsoft 365 Copilot gouvernance, les révisions d’IA responsable prennent en compte les points suivants :

  • Utilisation prévue et limitations de la fonctionnalité et si les sorties peuvent être mal comprises ou mal utilisées.
  • Risque de partialité ou de traitement injuste, y compris les préjudices liés à l’équité.
  • Risque de préjudices sur le lieu de travail, défini comme des systèmes d’IA effectuant des inférences, des jugements ou des évaluations sur les employés en fonction de la communication sur le lieu de travail.
  • Pertinence des protections, telles que le filtrage de contenu, le blocage des scénarios restreints et l’utilisateur dans la conception de la boucle.

Microsoft restreint explicitement l’utilisation de l’IA générative pour faire des inférences ou des jugements sur les performances, l’attitude, l’état interne ou les caractéristiques personnelles des employés, et applique des mesures d’atténuation pour prévenir ces dommages sur le lieu de travail.

Les résultats des évaluations d’impact de l’IA responsable informent les décisions de conception, notamment l’étendue des fonctionnalités, les garde-fous, les indicateurs de transparence et les contrôles utilisateur.

Importante

  • Les évaluations d’impact de l’IA responsable sont revisitées à mesure que les fonctionnalités évoluent, de sorte que les atténuations des risques restent appropriées à mesure que les fonctionnalités changent ou se développent.

Révision de la sécurité des données

En parallèle, Copilot pour Viva fonctionnalités Glint sont examinées par rapport aux engagements établis de Microsoft en matière de sécurité des données et de confidentialité pour Microsoft 365 Copilot.

Ces révisions valident les fonctionnalités suivantes :

  • Accéder aux données et les traiter uniquement dans les limites d’autorisation Microsoft 365 et Viva Glint existantes de l’utilisateur.
  • Respectez l’isolation des locataires, le contrôle d’accès en fonction du rôle et l’autorisation basée sur l’identité.
  • Vérifiez que les réponses brutes à l’enquête, les invites, les attributs utilisateur des répondants et les sorties générées par l’IAne sont pas utilisées pour entraîner les llms de base.
  • Protégez les données à l’aide de technologies de chiffrement alignées sur les engagements de sécurité de Microsoft.
  • S’aligner sur la résidence des données, les limites de données de l’UE et les engagements contractuels en matière de confidentialité.

Ces contrôles sont conçus pour aider Copilot pour Viva fonctionnalités Glint à répondre aux attentes de Microsoft en matière de sécurité, de confidentialité et de conformité avant leur publication. Pour plus d’informations sur les principes et normes d’IA responsable de Microsoft, consultez :

Comment Copilot pour Viva Glint bloque-t-il le contenu dangereux ?

Copilot pour Viva Glint utilise les mêmes protections que Microsoft 365 Copilot pour réduire le risque de détection et de blocage du contenu dangereux. Ces protections s’appliquent aux invites utilisateur et aux réponses générées par l’IA.

Filtres d’atteintes au contenu

Microsoft 365 Copilot utilise des filtres de préjudice de contenu qui identifient le contenu nuisible dans quatre catégories :

  • Haine & l’équité : langage péjoratif ou discriminatoire basé sur des attributs protégés
  • Contenu sexuel : discussions inappropriées sur les organes reproducteurs, les actes érotiques ou les abus sexuels
  • Violence : Langage relatif aux actions physiques visant à nuire ou à tuer, les armes et les entités connexes
  • Automutilation : contenu lié à des actions délibérées visant à blesser ou à se tuer soi-même

Filtre d’inconvénients sur l’espace de travail

Certains scénarios Microsoft 365 Copilot incluent des atténuations visant à prévenir les dommages sur le lieu de travail en limitant l’utilisation de l’IA générative à effectuer des inférences, des jugements ou des évaluations sur les employés concernant les performances, l’attitude, l’état interne ou émotionnel, ou les caractéristiques personnelles.

Autres protections

Microsoft 365 Copilot permet de détecter les éléments protégés, y compris le texte soumis au droit d’auteur et le code soumis à des restrictions de licence. Pour plus d’informations sur les protections de contenu nuisible, consultez Comment Copilot bloque-t-il le contenu dangereux ?

Copilot bloque-t-il les injections d’invite (attaques jailbreak) ?

Copilot pour Viva Glint utilise les mêmes protections que Microsoft 365 Copilot pour détecter et bloquer les attaques par injection d’invite et jailbreak. Ces protections fonctionnent avec les filtres d’endommagement du contenu et les atténuations intégrées de la sécurité des modèles dans le cadre d’une stratégie de sécurité en couches. Pour plus d’informations, consultez Est-ce que les injections de blocs Copilot invitent ?

Que se passe-t-il lorsque des modifications LLM de base se produisent ?

Les modèles IA qui alimentent Copilot pour Viva Glint sont régulièrement mis à jour et améliorés. Les mises à jour de modèle apportent des améliorations de performances, un raisonnement plus avancé et des fonctionnalités étendues, mais elles ne modifient pas vos paramètres de sécurité, de confidentialité ou de conformité. Pour plus d’informations, consultez Présentation des modifications du modèle de base dans Microsoft 365 Copilot

Gestion des modifications et notification aux clients

Viva Glint suit le processus de gestion des modifications standard de Microsoft pour informer les clients des mises à jour. Microsoft fournit un préavis d’au moins 30 jours pour les modifications qui nécessitent une action de l’administrateur.

Canaux de communication :

  • Centre de messages : source principale des notifications de modification dans le centre Administration Microsoft 365
  • Feuille de route Microsoft 365 : Site web public montrant les status de développement et les dates de publication
  • Blog Microsoft 365 : Annonces sur les dernières versions et fonctionnalités

Pour obtenir des informations complètes sur le processus de gestion des modifications de Microsoft, consultez le Guide des modifications microsoft 365.

Foire aux questions

Où sont traités les appels LLM pour les clients de l’UE, non-UE et australiens ?

  • Pour les clients de l’UE : le traitement LLM reste dans la limite des données de l’UE. Le trafic de l’UE est acheminé vers des centres de données au sein de l’UE, conformément aux engagements de l’UE en matière de limites de données.
  • Pour les clients non européens : les appels LLM sont acheminés vers les centres de données disponibles les plus proches de la région. Pendant les périodes d’utilisation élevée, les appels peuvent être acheminés vers d’autres régions où la capacité est disponible.
  • Pour les clients australiens : les données client peuvent temporairement être déplacées en dehors de l’Australie pour être traitées via les services principaux Microsoft 365, mais ne résident pas en dehors de l’Australie pendant plus de 24 heures.