Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Microsoft 365 Copilot in Viva Glint è uno strumento di analisi basato sull'intelligenza artificiale che consente agli utenti delle risorse umane e ai leader dell'organizzazione di comprendere e agire rapidamente in base al feedback dei dipendenti. Copilot in Viva Glint coordina i componenti seguenti:
- Modelli di linguaggio di grandi dimensioni ospitati da Microsoft forniti tramite Azure servizio OpenAI
- Risposte al sondaggio non elaborate, inclusi commenti e valutazioni
- Domande sul sondaggio e configurazione del programma
- Filtri demografici basati sulle autorizzazioni utente
Importante
- Le risposte al sondaggio non elaborate, le richieste e gli attributi utente rispondenti elaborati da Copilot in Viva Glint non vengono usati per eseguire il training delle VM di base, incluse le risposte al sondaggio non elaborate, le richieste e gli attributi utente rispondenti usati da Microsoft 365 Copilot.
- Le risposte al sondaggio non elaborate e gli attributi utente rispondenti archiviati in Viva Glint non vengono usati per eseguire il training delle VM di base.
- Copilot in Viva Glint rispetta le autorizzazioni di accesso ai dati e le soglie di riservatezza esistenti dell'organizzazione.
Chi usa Copilot in Viva Glint
Copilot in Viva Glint è progettato per più ruoli aziendali:
- Amministratori e responsabili delle risorse umane: riepilogare set di dati di grandi dimensioni per identificare informazioni dettagliate chiave e supportare le richieste degli stakeholder
- Responsabili dell'organizzazione: analizzare i commenti per i team e individuare modelli tra le popolazioni dei dipendenti
- Manager: identificare i temi del feedback del team per guidare le conversazioni e la pianificazione delle azioni
Informazioni su questo articolo
Questo articolo fornisce informazioni su dati, privacy e sicurezza per Microsoft 365 Copilot in Viva Glint, incluse le risposte alle domande seguenti:
- Qual è il requisito di licenza per accedere a Copilot in Viva Glint?
- Come funziona Copilot in Viva Glint con Microsoft 365 Copilot in limiti distinti?
- In che modo Copilot in Viva Glint protegge la privacy dei dati di feedback dei dipendenti?
- Quali protezioni dei dati aziendali si applicano a Copilot in Viva Glint?
- Dove vengono archiviati ed elaborati i dati quando si usa Copilot in Viva Glint?
- In che modo Copilot in Viva Glint aiuta i clienti a soddisfare i requisiti di conformità alle normative?
- In che modo Microsoft esamina Copilot in Viva Glint per l'intelligenza artificiale responsabile?
- Quali misure di sicurezza proteggono da contenuti dannosi e attacchi di inserimento rapida?
Requisiti di licenza
- Per accedere a Copilot in Viva Glintè necessaria una licenza per Viva Glint, Microsoft Viva Suite o Workplace Analytics e feedback dei dipendenti di Microsoft Viva.
- Non è necessaria una licenza per Microsoft 365 Copilot per accedere a Copilot in Viva Glint.
Copilot in Viva Glint e Microsoft 365 Copilot
Copilot in Viva Glint opera all'interno di un'architettura di dati dedicata per l'elaborazione del feedback dei dipendenti e dei dati del sondaggio. Questo è separato dai limiti di elaborazione dati di Microsoft 365 Copilot, progettato per supportare l'isolamento dei dati appropriato.
Funzionalità Copilot in Viva Glint
Quando si usano le funzionalità Copilot in Viva Glint (ad esempio il riepilogo dei commenti in Copilot in Viva Glint), le risposte ai sondaggi non elaborate, le richieste e gli attributi utente rispondenti vengono elaborati interamente entro il limite del servizio Microsoft 365. Le risposte al sondaggio non elaborate, le richieste e gli attributi utente rispondenti non vengono condivisi con Microsoft 365 Copilot.
Copilot in Viva Glint usa modelli di linguaggio di grandi dimensioni ospitati da Microsoft forniti tramite Azure servizio OpenAI. Le richieste di modello vengono elaborate entro il limite di conformità microsoft 365 usando l'infrastruttura gestita da Microsoft.
Importante
- Le risposte al sondaggio non elaborate, le richieste e gli attributi utente rispondenti elaborati da Copilot in Viva Glint non vengono usati per eseguire il training delle VM di base.
- Le risposte al sondaggio non elaborate e gli attributi utente rispondenti archiviati nel database Viva Glint non vengono usati per eseguire il training delle VM di base.
Come Copilot in Viva Glint protegge la privacy dei dati di feedback dei dipendenti
Copilot in Viva Glint rispetta le autorizzazioni di accesso ai dati e le protezioni di riservatezza esistenti dell'organizzazione. Quando Copilot riepiloga il feedback dei dipendenti, applica gli stessi meccanismi di privacy che proteggono i report e i dashboard di Viva Glint.
Meccanismi di protezione della privacy
Viva Glint protegge la privacy del partecipante al sondaggio tramite tre meccanismi principali:
Soglie di risposta minime
I risultati del sondaggio vengono segnalati solo quando viene ricevuto un numero minimo di risposte. Il valore minimo predefinito è 5 risposte per le domande di valutazione e 10 risposte per i commenti. Le organizzazioni possono configurare queste soglie per ogni programma di sondaggio per bilanciare la protezione della privacy con le esigenze di creazione di report.
Controlli di accesso in base al ruolo
Copilot in Viva Glint elabora solo i risultati del sondaggio che l'utente connesso ha l'autorizzazione a visualizzare in Viva Glint come configurato dall'amministratore del cliente. Il ruolo dell'utente nella gerarchia di report determina l'accesso. Se un team non soddisfa la soglia minima di risposta, la funzionalità Copilot in Viva Glint non è disponibile per l'utente o Copilot in Viva Glint informa l'utente che non è in grado di fornire un riepilogo delle risposte al sondaggio.
Soglie di eliminazione
Anche quando vengono soddisfatte le soglie minime di risposta, il feedback può essere eliminato se il filtro in base agli attributi demografici può consentire l'identificazione dei singoli intervistati. La logica di eliminazione di Viva Glint garantisce che il confronto dei risultati filtrati non possa rivelare risposte singole.
Come Copilot applica le protezioni della privacy
Quando si chiede a Copilot di riepilogare i commenti e suggerimenti:
- Copilot può accedere solo alle risposte, ai commenti e alle classificazioni del sondaggio non elaborati che l'utente connesso ha l'autorizzazione a visualizzare come configurato dall'amministratore.
- I riepiloghi rispettano le stesse soglie di riservatezza dei report Viva Glint.
- Se le risposte al sondaggio non soddisfano le soglie minime di risposta, Copilot non può accedere o riepilogare il feedback.
- Il filtro demografico in Copilot segue le stesse regole di eliminazione dei dashboard viva glint.
Per altre informazioni, vedere Protezione della privacy nella creazione di report.
Protezione dei dati aziendali
Copilot in Viva Glint segue gli stessi principi di protezione dei dati aziendali di Microsoft Viva e Microsoft 365. Queste protezioni sono progettate per mantenere i dati dei clienti sicuri, privati e sotto il controllo dell'utente. Per altre informazioni, vedere Viva security.
Copilot in Viva residenza dei dati Glint
Copilot in Viva Glint segue gli stessi impegni di residenza dei dati di Viva Glint per l'archiviazione e l'elaborazione dei dati dei clienti.
Archiviazione dei dati dei clienti
I dati dei clienti (inclusi risposte al sondaggio, commenti e attributi utente rispondenti) vengono archiviati in uno dei tre data center regionali in base alla posizione del tenant di Microsoft 365. Per informazioni dettagliate sulla residenza dei dati Viva Glint, vedere Residenza dei dati per Viva Glint.
Elaborazione LLM e limite dei dati dell'UE
Quando Copilot in Viva Glint chiama modelli linguistici di grandi dimensioni ospitati da Microsoft per elaborare risposte al sondaggio, richieste e attributi utente rispondenti non elaborati, l'elaborazione è allineata agli impegni di residenza dei dati di Viva Glint per l'area del tenant. Per informazioni dettagliate sulla residenza dei dati Viva Glint, vedere Residenza dei dati per Viva Glint.
Come Copilot in Viva Glint supporta la conformità alle normative
Copilot in Viva Glint segue lo stesso framework di sicurezza e conformità di Viva Glint. Viva Glint fornisce controlli e protezioni che consentono all'organizzazione di rispettare gli obblighi previsti dalle normative applicabili in materia di protezione dei dati, ad esempio il regolamento generale sulla protezione dei dati (GDPR) dell'Unione europea. Per informazioni dettagliate, vedere Sicurezza e conformità per l'utilizzo dei dati.
Legge sull'intelligenza artificiale dell'UE
Microsoft valuta i propri servizi in linea con le classificazioni applicabili dell'EU AI Act. Microsoft non classifica Copilot in Viva Glint come soluzione di intelligenza artificiale ad alto rischio ai sensi dell'EU AI Act. Copilot in Viva Glint è progettato per riepilogare il feedback dei dipendenti per le risorse umane e i responsabili dell'organizzazione e non esegue funzioni quali prendere decisioni che influiscono sui termini delle relazioni lavorative, l'identificazione biometrica, la gestione critica dell'infrastruttura o altre attività che lo inserirebbero in categoria ad alto rischio definita dalla legge sull'IA dell'UE. Per altre informazioni sull'approccio di Microsoft alla conformità dell'EU AI Act, vedere Innovating in line with the EU AI Act (Innovating in line with the EU AI Act).
Verifiche responsabili dell'intelligenza artificiale e della sicurezza dei dati per Copilot in Viva Glint
Copilot in Viva le funzionalità di Glint si basano sulle stesse basi di protezione dei dati, privacy, sicurezza e intelligenza artificiale responsabile che regolano Microsoft 365 Copilot. Per mantenere la fiducia dei clienti e ridurre il rischio di danni, ogni versione delle funzionalità viene valutata tramite la valutazione dell'impatto dell'IA responsabile e i processi di revisione della sicurezza dei dati progettati per identificare, valutare e attenuare i potenziali rischi prima che le funzionalità vengano rese disponibili.
Questi processi di revisione hanno lo scopo di ridurre i danni che possono derivare dai sistemi di intelligenza artificiale negli scenari aziendali, tra cui:
- Pregiudizi, iniquità o risultati discriminatori, in particolare nelle informazioni dettagliate e nei riepiloghi relativi alle persone.
- Danni all'ambiente di lavoro, ad esempio inferenze inappropriate o giudizi sulle prestazioni dei dipendenti, sullo stato emotivo o sulle caratteristiche personali.
- Contenuto generato da intelligenza artificiale impreciso o fuorviante che potrebbe essere troppo attendibile o non corretto.
- Accesso ai dati non autorizzato, esposizione o uso improprio, inclusi i rischi correlati all'isolamento del tenant e ai limiti delle autorizzazioni.
- Rischi per la sicurezza e la privacy che potrebbero compromettere la riservatezza, l'integrità o la residenza dei dati dei clienti.
Copilot in Viva Glint è progettato per mitigare questi rischi tramite un approccio di difesa in profondità che combina governance responsabile dell'IA, misure di sicurezza tecniche e controlli di sicurezza e privacy.
Valutazione dell'impatto responsabile dell'IA
Copilot in Viva le funzionalità glint sono soggette a una valutazione dell'impatto dell'IA responsabile allineata ai principi e agli standard di IA responsabile di Microsoft. Queste valutazioni sono progettate per valutare in che modo le funzionalità di intelligenza artificiale possono influire su utenti e organizzazioni in scenari reali e per identificare potenziali danni all'inizio del ciclo di vita del prodotto.
Come descritto in Microsoft 365 Copilot governance, le revisioni responsabili dell'IA considerano quanto segue:
- Uso previsto e limitazioni della funzionalità e se gli output possono essere fraintesi o usati in modo improprio.
- Potenziale pregiudizio o trattamento ingiusto, inclusi i danni correlati all'equità.
- Rischio di danni all'ambiente di lavoro, definito come sistemi di IA che eserci ranno inferenze, giudizi o valutazioni sui dipendenti in base alla comunicazione sul luogo di lavoro.
- Appropriatezza delle misure di sicurezza, ad esempio il filtro del contenuto, gli scenari con restrizioni di blocco e l'utente nella progettazione del ciclo.
Microsoft limita in modo esplicito l'uso dell'intelligenza artificiale generativa per effettuare inferenze o giudizi sulle prestazioni dei dipendenti, l'atteggiamento, lo stato interno o le caratteristiche personali e applica mitigazioni per prevenire questi danni all'area di lavoro.
I risultati delle valutazioni di impatto dell'IA responsabile informano le decisioni di progettazione, tra cui ambito delle funzionalità, guardrail, segnali di trasparenza e controlli utente.
Importante
- Le valutazioni dell'impatto responsabile dell'IA vengono rivisitate man mano che le funzionalità si evolvono, in modo che le mitigazioni dei rischi rimangano appropriate man mano che le funzionalità cambiano o si espandono.
Verifica della sicurezza dei dati
In parallelo, le funzionalità Copilot in Viva Glint vengono esaminate in base agli impegni stabiliti da Microsoft in materia di sicurezza dei dati e privacy per Microsoft 365 Copilot.
Queste revisioni convalidano che le funzionalità:
- Accedere ed elaborare i dati solo all'interno dei limiti di autorizzazione esistenti di Microsoft 365 e Viva Glint dell'utente.
- Rispettare l'isolamento del tenant, il controllo degli accessi in base al ruolo e l'autorizzazione basata su identità.
- Verificare che le risposte al sondaggio non elaborate, le richieste, gli attributi utente rispondenti e gli output generati dall'intelligenza artificialenon vengano usati per eseguire il training delle VM di base.Verify that raw survey responses, prompts, respondent user attributes, and AI-generated outputs are not used to training foundation LLMs.
- Proteggere i dati usando tecnologie di crittografia allineate agli impegni di sicurezza di Microsoft.
- Allinearsi con la residenza dei dati, il limite dei dati dell'UE e gli impegni contrattuali sulla privacy.
Questi controlli sono progettati per consentire Copilot in Viva funzionalità Glint soddisfino le aspettative di sicurezza, privacy e conformità di Microsoft prima del rilascio. Per altre informazioni sui principi e gli standard di intelligenza artificiale responsabile di Microsoft, vedere:
In che modo Copilot in Viva Glint blocca il contenuto dannoso?
Copilot in Viva Glint usa le stesse misure di sicurezza di Microsoft 365 Copilot per ridurre il rischio di rilevare e bloccare contenuti dannosi. Queste protezioni si applicano sia alle richieste degli utenti che alle risposte generate dall'intelligenza artificiale.
Filtri per i danni al contenuto
Microsoft 365 Copilot utilizza filtri dannosi per il contenuto che identificano il contenuto dannoso in quattro categorie:
- Odio & equità: linguaggio peggiorativo o discriminatorio basato su attributi protetti
- Contenuto sessuale: discussioni inappropriate di organi riproduttivi, atti erotici o abusi sessuali
- Violenza: linguaggio correlato ad azioni fisiche destinate a danneggiare o uccidere, armi ed entità correlate
- Autolesionismo: contenuto correlato ad azioni intenzionali volte a ferirsi o uccidersi
Filtro dei danni all'area di lavoro
Alcuni scenari Microsoft 365 Copilot includono mitigazioni per prevenire danni all'ambiente di lavoro limitando l'uso dell'IA generativa da inferenze, giudizi o valutazioni sui dipendenti in merito a prestazioni, atteggiamento, stato interno o emotivo o caratteristiche personali.
Protezioni aggiuntive
Microsoft 365 Copilot fornisce il rilevamento per i materiali protetti, tra cui testo soggetto a copyright e codice soggetto a restrizioni di licenza. Per informazioni dettagliate sulle protezioni dei contenuti dannosi, vedere In che modo Copilot blocca il contenuto dannoso?
Copilot blocca gli attacchi di prompt injection (jailbreak)?
Copilot in Viva Glint usa le stesse misure di sicurezza di Microsoft 365 Copilot per rilevare e bloccare gli attacchi di inserimento e jailbreak. Queste misure di sicurezza funzionano insieme ai filtri per i danni ai contenuti e alle mitigazioni predefinite della sicurezza dei modelli come parte di una strategia di sicurezza a più livelli. Per informazioni dettagliate, vedere Iniezioni di richieste di blocco di Copilot?
Cosa accade quando si verificano modifiche LLM di base?
I modelli di intelligenza artificiale che alimentano Copilot in Viva Glint vengono aggiornati e migliorati regolarmente. Gli aggiornamenti del modello comportano miglioramenti delle prestazioni, ragionamenti più avanzati e funzionalità estese, ma non modificano le impostazioni di sicurezza, privacy o conformità. Per altre informazioni, vedere Informazioni sulle modifiche del modello di base in Microsoft 365 Copilot
Gestione delle modifiche e notifica del cliente
Viva Glint segue il processo di gestione delle modifiche standard di Microsoft per informare i clienti sugli aggiornamenti. Microsoft fornisce un preavviso di almeno 30 giorni per le modifiche che richiedono l'intervento dell'amministratore.
Canali di comunicazione:
- Centro messaggi: origine primaria per le notifiche di modifica nel Centro Amministrazione Microsoft 365
- Roadmap di Microsoft 365: Sito Web pubblico che mostra lo stato dello sviluppo e le date di rilascio
- Blog di Microsoft 365: annunci sulle versioni e le funzionalità più recenti
Per informazioni complete sul processo di gestione delle modifiche di Microsoft, vedere La guida alle modifiche di Microsoft 365.
Domande frequenti
Dove vengono elaborate le chiamate LLM per i clienti UE, non UE e australiano?
- Per i clienti dell'UE: l'elaborazione LLM rimane entro il limite dei dati dell'UE. Il traffico dell'UE viene indirizzato ai data center all'interno dell'UE, in linea con gli impegni dell'UE in materia di limiti dei dati.
- Per i clienti non UE: le chiamate LLM vengono indirizzate ai data center più vicini disponibili nell'area. Durante i periodi di utilizzo elevato, le chiamate possono essere indirizzate ad altre aree in cui la capacità è disponibile.
- Per i clienti australiani: i dati dei clienti possono spostarsi temporaneamente all'esterno dell'Australia per l'elaborazione tramite i servizi core di Microsoft 365, ma non risiedono al di fuori dell'Australia per più di 24 ore.