Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Che cos'è una scheda applicazione o piattaforma?
Le schede microsoft per applicazioni e piattaforme sono progettate per aiutarti a comprendere come funziona la nostra tecnologia di intelligenza artificiale, le scelte che i proprietari delle applicazioni possono fare che influenzano le prestazioni e il comportamento dell'applicazione e l'importanza di considerare l'intera applicazione, inclusa la tecnologia, le persone e l'ambiente. Le schede applicazione vengono create per le applicazioni di intelligenza artificiale e le schede della piattaforma vengono create per i servizi della piattaforma di intelligenza artificiale. Queste risorse possono supportare lo sviluppo o la distribuzione di applicazioni personalizzate e possono essere condivise con utenti o stakeholder interessati.
Come parte del suo impegno per l'IA responsabile, Microsoft rispetta sei principi fondamentali: equità, affidabilità e sicurezza, privacy e sicurezza, inclusività, trasparenza e responsabilità. Questi principi sono incorporati nella Standard di intelligenza artificiale responsabile, che guida i team nella progettazione, nella compilazione e nel test delle applicazioni di intelligenza artificiale. Le schede delle applicazioni e della piattaforma svolgono un ruolo fondamentale nell'operazionalizzazione di questi principi offrendo trasparenza sulle funzionalità, gli usi previsti e le limitazioni. Per altre informazioni dettagliate, i lettori sono invitati a esplorare il report sulla trasparenza responsabile dell'IA e il codice di condotta di Microsoft, che descrivono in che modo i clienti e gli utenti aziendali possono interagire con l'IA in modo responsabile.
Panoramica
Gestione della postura di sicurezza dei dati di Microsoft Purview è un'applicazione di sicurezza dei dati all'interno del portale di Microsoft Purview che consente alle organizzazioni di individuare, proteggere e analizzare i rischi dati sensibili nel proprio digital estate. Anziché concentrarsi sull'infrastruttura o sugli endpoint, Gestione della postura di sicurezza dei dati si concentra sui dati stessi, identificando dove si trovano, chi può accederle, come viene usato e se è adeguatamente protetto. Usa l'intelligenza artificiale per analizzare i modelli di accesso, i comportamenti di condivisione e le lacune dei criteri per individuare rischi interattivi e consigliare i passaggi di correzione.
Gestione della postura di sicurezza dei dati affronta una sfida crescente negli ambienti di lavoro basati sull'intelligenza artificiale di oggi: la crescente complessità e volume di dati rende difficile per i team di sicurezza mantenere la visibilità e il controllo. L'applicazione risolve questo problema consolidando le informazioni dettagliate da più soluzioni Microsoft Purview, tra cui prevenzione della perdita dei dati (DLP), Gestione dei rischi Insider, protezione delle informazioni con etichette di riservatezza e Indagini sulla sicurezza dei dati, in un'unica visualizzazione per il monitoraggio dei rischi dei dati, la copertura dei criteri e le tendenze di postura. Questo approccio unificato sostituisce la necessità di più strumenti e controlli manuali, consentendo agli amministratori di colmare le lacune di sicurezza dei dati in modo più efficiente.
Gestione della postura di sicurezza dei dati è progettato per funzionare in modo affidabile in ambienti aziendali in cui le organizzazioni devono monitorare e proteggere dati sensibili in più posizioni. L'applicazione include un'esperienza di Microsoft Security Copilot incorporata che consente a questi utenti di porre domande in linguaggio naturale sul comportamento di sicurezza dei dati, nonché agenti di intelligenza artificiale di Security Copilot che possono eseguire azioni di correzione guidate sui rischi rilevati. Per un'introduzione introduttiva, vedere il video di Microsoft Mechanics: New Gestione della postura di sicurezza dei dati(Nuovo Gestione della postura di sicurezza dei dati).
Termini chiave
Nell'elenco seguente viene fornito un glossario dei termini chiave relativi a Gestione della postura di sicurezza dei dati:
Osservabilità dell'intelligenza artificiale: una funzionalità all'interno di Gestione della postura di sicurezza dei dati che fornisce un inventario di app e agenti di intelligenza artificiale con attività recenti, che mostra quanti sono ad alto rischio e il totale con interazioni sensibili, insieme a una suddivisione dei singoli agenti e dei criteri che li governano.
Criteri di raccolta: criteri che acquisiscono richieste e risposte dalle interazioni con intelligenza artificiale per Copilot in Fabric e Security Copilot e per le app di intelligenza artificiale non Copilot, in modo che possano essere gestite nelle soluzioni Microsoft Purview.
Interazioni copilot: Prompt e risposte da copilot e agenti supportati da Microsoft Purview per la protezione della sicurezza dei dati e della conformità. Include Microsoft 365 Copilot, Security Copilot, Copilot in Fabric, Copilot Studio.
Prevenzione della perdita dei dati: una soluzione Microsoft Purview che consente agli utenti di condividere in modo inappropriato dati sensibili usando tecniche di analisi del contenuto, tra cui la corrispondenza delle parole chiave, la valutazione delle espressioni e gli algoritmi di Machine Learning.
Valutazione dei rischi per i dati: analisi automatizzata o personalizzata che identifica e aiuta a correggere i potenziali rischi di sovrasollamento dei dati, in particolare per i siti di SharePoint e le aree di lavoro di Fabric. Le valutazioni predefinite vengono eseguite settimanalmente per i primi 100 siti in base all'utilizzo.
Obiettivi di sicurezza dei dati: flussi di lavoro guidati all'interno di Gestione della postura di sicurezza dei dati che rappresentano ognuno un obiettivo di sicurezza specifico, ad esempio la prevenzione dell'esposizione dei dati nelle interazioni copilot o la prevenzione dell'oversharing. Ogni obiettivo raggruppa le soluzioni Microsoft Purview pertinenti e le azioni con priorità.
Agente di postura della sicurezza dei dati: agente di Microsoft Security Copilot esclusivo della versione corrente di Gestione della postura di sicurezza dei dati che usa la ricerca in linguaggio naturale tra i file nelle interazioni con SharePoint, OneDrive, Teams, Exchange e Copilot. È progettato per i controlli preliminari all'indagine anziché per i casi formali.
Gestione dei rischi Insider: una soluzione Microsoft Purview che usa indicatori predefiniti del servizio e di terze parti per identificare, valutare e agire su attività potenzialmente rischiose da parte degli utenti di un'organizzazione.
Criterio con un clic: un criterio preconfigurato all'interno di Gestione della postura di sicurezza dei dati che può essere attivato con un solo clic per ottenere rapidamente informazioni dettagliate e proteggere i dati, senza richiedere la configurazione manuale dei criteri.
Promptbook: sequenza predefinita di richieste di Microsoft Security Copilot che consente agli utenti di analizzare rapidamente scenari di sicurezza dei dati specifici, ad esempio comportamenti utente rischiosi o protezione dati sensibili.
Security Copilot: Microsoft Security Copilot e i relativi agenti sono una soluzione di sicurezza generativa basata sull'intelligenza artificiale che consente ai professionisti della sicurezza dei dati di analizzare e rispondere agli eventi imprevisti di sicurezza. All'interno di Gestione della postura di sicurezza dei dati, offre un'esperienza di richiesta aperta per porre domande in linguaggio naturale sulla sicurezza dei dati.
Etichetta di riservatezza: etichetta di Microsoft Purview Information Protection che può essere applicata al contenuto per definire e applicare criteri di protezione per dati sensibili tra cloud, app e dispositivi.
Funzionalità o funzionalità principali
Le funzionalità e le funzionalità principali descritte qui descrivono cosa è progettato per eseguire Gestione della postura di sicurezza dei dati e come vengono eseguite tra le attività supportate.
Dashboard del comportamento di sicurezza dei dati: pagina di destinazione centrale che fornisce accesso immediato alle metriche di postura chiave, obiettivi principali da affrontare in base al rischio, uno snapshot dell'utilizzo dei dati nell'area dati e un grafico di tendenza di 30 giorni del comportamento di sicurezza dei dati dell'organizzazione. Gli utenti possono interagire direttamente con Security Copilot tramite le richieste suggerite in questa pagina.
Obiettivi di sicurezza dei dati con flussi di lavoro guidati: schede selezionabili che rappresentano ognuno un obiettivo di sicurezza specifico, ad esempio la prevenzione dell'esposizione dei dati nelle interazioni Copilot, la prevenzione dell'oversharing dei dati sensibili, la prevenzione dell'esfiltrazione in posizioni rischiose e l'individuazione di dati sensibili. Ogni obiettivo fornisce un flusso di lavoro end-to-end con azioni con priorità, criteri con un clic e monitoraggio dello stato, in modo che gli utenti possano concentrarsi sul raggiungimento dei risultati anziché passare a soluzioni separate.
Osservabilità dell'intelligenza artificiale: inventario di app e agenti di intelligenza artificiale con attività negli ultimi 30 giorni, che mostra quanti sono ad alto rischio e il totale con interazioni sensibili. Fornisce una suddivisione dei singoli agenti, delle relative attività e dei criteri che li disciplinano, consentendo agli amministratori di monitorare i rischi, ad esempio sovrasfiltrazione, esfiltrazione e modelli di accesso insoliti.
Valutazioni dei rischi dei dati: analisi automatizzate e personalizzate che identificano potenziali rischi di oversharing dei dati. Le valutazioni predefinite vengono eseguite settimanalmente per i primi 100 siti di SharePoint in base all'utilizzo. Le valutazioni personalizzate possono essere destinate a utenti, siti o aree di lavoro di Fabric specifici. I risultati includono opzioni di correzione, ad esempio la limitazione dell'accesso per etichetta, la creazione di criteri di etichettatura automatica o la creazione di criteri di conservazione.
Raccomandazioni e azioni correttive per la sicurezza dei dati: informazioni dettagliate e raccomandazioni generate dai dati elaborati che consentono agli amministratori di creare o perfezionare i criteri di prevenzione della perdita dei dati e gestione dei rischi Insider. Include criteri con un clic per la distribuzione rapida direttamente dal flusso di lavoro Gestione della postura di sicurezza dei dati.
Report e analisi: tiene traccia del comportamento di sicurezza dei dati dell'organizzazione nel tempo con report che riepilogano l'utilizzo delle etichette di riservatezza, la copertura dei criteri DLP, il comportamento utente rischioso e l'attività delle app per intelligenza artificiale. La creazione di report avanzata offre filtri avanzati, visualizzazioni personalizzabili e funzionalità di esportazione per supportare i requisiti di conformità.
Esplora attività: fornisce visibilità dettagliata sulle attività correlate al contenuto, tra cui interazioni con intelligenza artificiale (richieste, risposte e informazioni sensibili rilevate), corrispondenze delle regole DLP, visite ai siti Web di intelligenza artificiale e rilevamenti dei tipi di informazioni sensibili. Supporta il filtro per categorie di carico di lavoro, ad esempio esperienze Copilot, app per intelligenza artificiale aziendali e altre app per intelligenza artificiale.
Agente di postura della sicurezza dei dati: agente basato su intelligenza artificiale di Microsoft Security Copilot e che usa la ricerca in linguaggio naturale per trovare dati sensibili nelle interazioni di SharePoint, OneDrive, Teams, Exchange e Copilot. Fornisce conteggi degli elementi, classificazioni delle etichette di riservatezza e valutazioni a livello di rischio, oltre a report di informazioni dettagliate esportabili. Questo agente è progettato per controlli rapidi e preliminari all'analisi.
Esperienza di Security Copilot incorporata: un'esperienza di richiesta aperta in cui gli utenti possono porre domande in linguaggio naturale sul proprio comportamento di sicurezza dei dati. Include promptbook predefiniti per l'analisi degli utenti a rischio e la protezione dati sensibili, nonché una raccolta di prompt con richieste categorizzate per avvisi, dati a rischio, utenti a rischio, attività sospette e dati sensibili.
Correzione basata su agente di intelligenza artificiale: sotto le indicazioni degli utenti, gli agenti di intelligenza artificiale possono intervenire direttamente sui rischi rilevati, ad esempio la rimozione di collegamenti di condivisione pubblica, l'applicazione di criteri DLP o la revoca delle autorizzazioni. Gli agenti di valutazione basati sull'intelligenza artificiale esaminano gli avvisi di DLP e Insider Risk Management, filtrando il rumore ed evidenziando le minacce critiche. Tutte le azioni dell'agente vengono controllate e soggette a revisione e approvazione da parte dell'utente.
Usi previsti
Gestione della postura di sicurezza dei dati può essere usato in più scenari in diversi settori. Alcuni esempi di casi d'uso includono:
Monitoraggio del comportamento di sicurezza dei dati in tutta l'azienda: un responsabile della conformità presso un'organizzazione di servizi finanziari usa Gestione della postura di sicurezza dei dati per ottenere una visualizzazione unificata dei dati sensibili in diverse posizioni. Il dashboard di postura presenta le metriche e le tendenze principali, consentendo al responsabile di identificare rapidamente dove esistono dati sensibili non protette e di tenere traccia dei miglioramenti nel tempo. In questo modo si elimina la necessità di esaminare manualmente più strumenti e dashboard separati.
Prevenzione della condivisione eccessiva prima della distribuzione Microsoft 365 Copilot: un amministratore IT che si prepara per una distribuzione Microsoft 365 Copilot esegue valutazioni dei rischi dei dati per identificare i siti di SharePoint con contenuto potenzialmente sovracondiviso. Gestione della postura di sicurezza dei dati visualizza i siti in cui i file sensibili hanno collegamenti di condivisione generali o non contengono etichette di riservatezza e fornisce opzioni di correzione con un clic, ad esempio la limitazione dell'accesso o la creazione di criteri di etichettatura automatica. Ciò consente all'organizzazione di ridurre l'esposizione dei dati prima che gli strumenti di intelligenza artificiale inizino a elaborare il contenuto.
Analisi del comportamento utente rischioso con l'analisi assistita dall'intelligenza artificiale: un analista della sicurezza dei dati riceve un avviso relativo a un utente che esegue attività insolite di condivisione file. Usando l'esperienza di Security Copilot incorporata, l'analista esegue il prompt delle indagini utente rischioso, che analizza automaticamente le attività dati sensibili dell'utente, identifica i potenziali modelli di esfiltrazione, controlla le anomalie e suggerisce azioni protettive, il tutto attraverso una sequenza di richieste di linguaggio naturale.
Governance dell'utilizzo delle app per intelligenza artificiale nell'intera organizzazione: un team di sicurezza di un'organizzazione sanitaria usa l'osservabilità dell'IA per monitorare con quali app e agenti di intelligenza artificiale interagiscono i dipendenti, con quale di queste interazioni coinvolgono dati sensibili dei pazienti e se sono in vigore criteri di prevenzione della perdita dei dati appropriati. Il team usa gli obiettivi di sicurezza dei dati per creare criteri mirati che impediscono la condivisione di informazioni sull'integrità sensibili con applicazioni di intelligenza artificiale non autorizzate.
Risposta ai requisiti di conformità: un team di conformità di un'agenzia governativa usa Gestione della postura di sicurezza dei dati report ed Esplora attività per dimostrare che dati sensibili è etichettato in modo appropriato, protetto dai criteri di prevenzione della perdita dei dati e monitorato per le attività rischiose. Le funzionalità di esportazione e le visualizzazioni personalizzabili consentono al team di generare documentazione pronta per il controllo allineata agli obblighi normativi.
Individuazione di dati sensibili non protette in nuovi ambienti: un'organizzazione che ha appena iniziato a usare Microsoft Purview usa Gestione della postura di sicurezza dei dati per analizzare automaticamente i dati e le attività degli utenti, ottenendo informazioni di base e raccomandazioni incentrate sui dati non protetti. Ciò consente all'organizzazione di stabilire rapidamente criteri di prevenzione della perdita dei dati, protezione delle informazioni e Gestione dei rischi Insider senza eseguire analisi manuali approfondite.
Gestione della postura di sicurezza dei dati non è destinato all'uso come assistente di intelligenza artificiale per utilizzo generico, per scenari non correlati alla sicurezza dei dati all'interno di Microsoft Purview o per indagini legali formali (che richiedono soluzioni dedicate come eDiscovery e Indagini sulla sicurezza dei dati).
Modelli e dati di training
Gestione della postura di sicurezza dei dati sfrutta gli agenti di intelligenza artificiale esistenti e le funzionalità di intelligenza artificiale. Di conseguenza, dipende da qualsiasi configurazione esterna fornita da questi. Ad esempio, la scelta del modello per Microsoft Security Copilot per l'esperienza di richiesta del linguaggio naturale incorporato. Gestione della postura di sicurezza dei dati usa anche l'analisi del contenuto all'interno di Prevenzione della perdita dei dati per rilevare informazioni sensibili tramite la corrispondenza delle parole chiave, la valutazione delle espressioni e gli algoritmi di Machine Learning. Per altre informazioni, vedere le schede applicazione collegate e la documentazione.
Prestazioni
Gestione della postura di sicurezza dei dati è progettato per funzionare in modo affidabile in ambienti aziendali in cui le organizzazioni devono monitorare e proteggere dati sensibili in più posizioni. L'applicazione elabora e correla i dati delle soluzioni Microsoft Purview esistenti, tra cui DLP, Gestione dei rischi Insider e protezione delle informazioni, per generare informazioni dettagliate, raccomandazioni e metriche di postura. Le prestazioni sono ottimizzate per le organizzazioni che usano servizi cloud Microsoft supportati e i risultati migliorano man mano che vengono configurate più soluzioni Microsoft Purview e sono disponibili più dati per l'analisi.
L'applicazione accetta input basati su testo nelle relative funzionalità. Gli utenti interagiscono con Gestione della postura di sicurezza dei dati tramite l'interfaccia del portale di Microsoft Purview, in cui possono esplorare i dashboard, configurare i criteri ed eseguire valutazioni dei rischi per i dati. L'esperienza di Security Copilot incorporata accetta richieste di testo in linguaggio naturale e restituisce risposte basate su testo, inclusi riepiloghi dei dati, analisi dei rischi e azioni consigliate. Data Security Posture Agent accetta query di ricerca in linguaggio naturale e restituisce risultati strutturati, inclusi i conteggi degli elementi, le classificazioni delle etichette di riservatezza e le valutazioni a livello di rischio, con un'opzione per esportare i report come documenti Word.
Gestione della postura di sicurezza dei dati supporta le lingue disponibili nell'interfaccia del portale di Microsoft Purview. L'esperienza Security Copilot è progettata e valutata principalmente per richieste e risposte in lingua inglese. Il rilevamento dei tipi di informazioni riservate supporta più lingue, come documentato nelle singole definizioni dei tipi di informazioni riservate. Gli utenti devono essere consapevoli del fatto che le prestazioni della richiesta in lingua naturale e delle funzionalità di ricerca possono variare quando si usano lingue diverse dall'inglese.
Dopo la configurazione iniziale, Gestione della postura di sicurezza dei dati richiede tempo per elaborare i dati dell'organizzazione. I tempi di analisi variano in base alle dimensioni dell'organizzazione e alla quantità di dati e attività da elaborare e il completamento dell'elaborazione iniziale può richiedere fino a tre giorni. I nuovi criteri richiedono almeno 24 ore per raccogliere i dati prima che vengano visualizzati i risultati. Le valutazioni dei rischi per i dati richiedono almeno 48 ore dopo il completamento prima che i risultati aggiornati siano disponibili. L'agente di postura di sicurezza dei dati può eseguire ricerche fino a 1 GB di contenuto per query e le ricerche limitate destinate a utenti o siti specifici hanno prestazioni notevolmente più veloci rispetto alle ricerche a livello di tenant.
Limitazioni
Comprendere le limitazioni di Gestione della postura di sicurezza dei dati è fondamentale per determinarne l'uso all'interno di limiti sicuri ed efficaci. Anche se incoraggiamo i clienti a sfruttare Gestione della postura di sicurezza dei dati nelle loro soluzioni o applicazioni innovative, è importante notare che Gestione della postura di sicurezza dei dati non è stato progettato per ogni possibile scenario. Si consiglia agli utenti di fare riferimento al Codice di condotta di Microsoft Enterprise AI Services (per le organizzazioni) o alla sezione Codice di condotta del Contratto di servizi Microsoft (per singoli utenti), nonché alle considerazioni seguenti quando si sceglie un caso d'uso:
Ambito di sicurezza dei dati: l'esperienza Security Copilot in Gestione della postura di sicurezza dei dati è progettata per rispondere alle domande sulla sicurezza dei dati associata a Gestione dei rischi Insider, Information Protection e Prevenzione della perdita dei dati in Microsoft Purview. Tutte le altre soluzioni Purview sono attualmente fuori ambito per Gestione della postura di sicurezza dei dati informazioni dettagliate. Gli utenti devono indirizzare le domande al di fuori di queste aree agli strumenti appropriati specifici della soluzione.
Copertura dei dati: la scheda Standard esplora risorse viene filtrata in base alle posizioni Microsoft e non Microsoft. Le località Microsoft attualmente includono solo Microsoft 365. Le posizioni non Microsoft sono rese possibili dall'integrazione con le soluzioni dei partner. Le organizzazioni con dati significativi in ambienti che non sono inclusi devono tenere presente che la visibilità tramite Esplora asset può essere limitata e deve integrare altri strumenti in base alle esigenze.
Limiti del volume di valutazione dei rischi per i dati: un massimo di 200.000 elementi per località si applica sia alle valutazioni dei rischi dei dati personalizzate che predefinite. Il numero di file segnalati potrebbe non essere accurato quando sono presenti più di 100.000 file per percorso. Le organizzazioni con siti di SharePoint di grandi dimensioni devono prendere in considerazione l'esecuzione di più valutazioni mirate. OneDrive non è attualmente supportato per l'analisi a livello di elemento e le valutazioni personalizzate supportano un massimo di 10 siti di SharePoint per l'analisi a livello di elemento.
Requisiti di tempo di elaborazione: al termine di una valutazione del rischio dati personalizzata, i risultati richiedono almeno 48 ore per diventare disponibili e non vengono aggiornati dopo tale punto. È necessaria una nuova valutazione per visualizzare le modifiche. I nuovi criteri richiedono almeno 24 ore prima della visualizzazione dei dati. Gli utenti devono pianificare in anticipo ed evitare di aspettarsi risultati in tempo reale da valutazioni o criteri appena creati.
Completezza dei dati di Esplora attività: l'evento di interazione con intelligenza artificiale potrebbe non visualizzare sempre il testo della richiesta e della risposta. In alcuni casi, le richieste e le risposte si estendono su voci consecutive. Quando un utente non dispone di una cassetta postale ospitata in Exchange Online, non viene visualizzata alcuna richiesta o risposta. Le note generate da Microsoft Facilitator generate dall'intelligenza artificiale potrebbero non visualizzare richieste o risposte. Gli utenti devono essere consapevoli di queste lacune quando si fa affidamento su Esplora attività per motivi di conformità o di indagine.
Vincoli dell'agente di postura di sicurezza dei dati: l'agente supporta ricerche di contenuto fino a 1 GB di dati, ma non supporta ricerche basate su metadati. Se non viene specificato alcun periodo di tempo, per impostazione predefinita i risultati sono gli ultimi 7 giorni. L'agente è progettato per i controlli preliminari all'analisi e non sostituisce gli strumenti di indagine formale, ad esempio eDiscovery, audit o Indagini sulla sicurezza dei dati.
Supporto della lingua: l'esperienza Security Copilot e l'agente di postura di sicurezza dei dati sono progettati e valutati principalmente per le richieste in lingua inglese. L'uso di altre lingue può comportare una riduzione dell'accuratezza o risposte incomplete. Gli utenti devono prestare attenzione quando operano al di fuori dell'ambito linguistico previsto.
Accuratezza generativa della risposta all'IA: come per tutti i sistemi generativi di intelligenza artificiale, Security Copilot risposte in Gestione della postura di sicurezza dei dati possono talvolta contenere informazioni imprecise o incomplete. Gli utenti devono verificare le informazioni dettagliate generate dall'intelligenza artificiale rispetto ai dati effettivi prima di eseguire azioni consequenziali in base a tali risposte.
Giudizi
Le valutazioni delle prestazioni e della sicurezza valutano se le applicazioni di intelligenza artificiale funzionano in modo affidabile e sicuro esaminando fattori come la solidità, la rilevanza e la coerenza, identificando al tempo stesso i rischi di generazione di contenuti dannosi. Le valutazioni seguenti sono state condotte con componenti di sicurezza già in atto, descritti anche in Componenti di sicurezza e Mitigazioni.
Gestione della postura di sicurezza dei dati è stato valutato usando metodi di valutazione personalizzati sviluppati dal team del prodotto. La valutazione si è incentrata sull'accuratezza dell'esperienza di Security Copilot incorporata quando si rispondono alle domande sul linguaggio naturale sulla sicurezza dei dati.
Il set di dati di valutazione era costituito da richieste pertinenti identificate dal team del prodotto e dai clienti, incluso un set di test esteso di richieste in base a schemi e descrizioni di tabella. Microsoft ha valutato le prestazioni usando una metrica della frequenza di accuratezza: una risposta viene considerata accurata se la query generata fornisce le informazioni esatte richieste nel prompt. Il team ha testato una serie di scenari di sicurezza dei dati che coprono informazioni dettagliate sulla prevenzione della perdita dei dati, sulla protezione delle informazioni e sulla gestione dei rischi Insider per verificare che le risposte Security Copilot siano effettivamente supportate dai dati sottostanti e contestualmente appropriate alla domanda dell'utente.
Un risultato ideale è quello in cui la risposta Security Copilot restituisce esattamente le informazioni richieste, in base ai dati effettivi dell'organizzazione, senza contenuti fabbricati o fuorvianti. Un risultato non ottimale sarebbe una risposta che restituisce dati non accurati, interpreta erroneamente la domanda dell'utente o fornisce informazioni al di fuori dell'ambito delle soluzioni di sicurezza dei dati supportate. Il processo di valutazione è iterativo, con il team di prodotto che affina i set di richieste e le soglie di accuratezza in base al feedback dei clienti e ai modelli di utilizzo reali.
Componenti di sicurezza e mitigazioni
Controllo degli accessi in base al ruolo: Gestione della postura di sicurezza dei dati applica autorizzazioni granulari tramite i gruppi di ruoli Microsoft Entra e Microsoft Purview. Attività diverse richiedono ruoli specifici, ad esempio Amministratore conformità per la modifica, Visualizzatore sicurezza dati per l'uso di Security Copilot e Visualizzatore contenuto di Esplora contenuto per la visualizzazione di richieste e risposte di interazione con intelligenza artificiale. Ciò garantisce che gli utenti possano accedere ai dati solo e intraprendere azioni appropriate per il proprio ruolo, riducendo il rischio di accesso non autorizzato alle informazioni sensibili.
Registrazione completa dei controlli: tutte le azioni automatizzate eseguite dagli agenti di intelligenza artificiale in Gestione della postura di sicurezza dei dati vengono registrate nei log di controllo. Sono incluse azioni quali la rimozione di collegamenti di condivisione, l'applicazione di criteri e la revoca delle autorizzazioni. I log di controllo e le funzionalità di Esplora attività offrono un'analisi completa delle interazioni con le app e gli agenti di intelligenza artificiale, supportando le indagini sulla conformità, la risposta agli eventi imprevisti e la responsabilità.
Revisione umana e approvazione per le azioni degli agenti: gli utenti mantengono sempre il controllo sul comportamento degli agenti di intelligenza artificiale all'interno Gestione della postura di sicurezza dei dati. Gli agenti di valutazione basati sull'intelligenza artificiale e l'agente di postura della sicurezza dei dati eseguono raccomandazioni e risultati, ma gli utenti esaminano, approvano o personalizzano tutte le azioni automatizzate prima che diano effetto. Le opzioni "Visualizza attività agente" in tutta l'interfaccia consentono di accedere facilmente all'attività dell'agente per la supervisione.
Elaborazione dell'analisi opt-in: Gestione della postura di sicurezza dei dati richiede l'esplicito consenso esplicito prima di elaborare i dati dell'organizzazione. L'analisi sia in Insider Risk Management che in DLP deve essere abilitata prima che Gestione della postura di sicurezza dei dati possano generare informazioni dettagliate. In questo modo le organizzazioni prendono una decisione intenzionale di condividere i dati per l'analisi e sono consapevoli dell'elaborazione che avviene.
Funzionalità di intelligenza artificiale con ambito: l'esperienza di Security Copilot in Gestione della postura di sicurezza dei dati è deliberatamente collegata agli argomenti relativi alla sicurezza dei dati associati a Gestione dei rischi Insider, Information Protection e prevenzione della perdita dei dati. Le domande al di fuori di questo ambito non rispondono, riducendo il rischio che l'intelligenza artificiale generi risposte su argomenti in cui non dispone di dati affidabili. L'agente di postura di sicurezza dei dati ha un ambito simile alle ricerche di contenuto all'interno di Microsoft 365 e è limitato a 1 GB di contenuto per query.
Classificazione a livello di rischio per i risultati della ricerca: Data Security Posture Agent assegna un livello di rischio a ogni risultato della ricerca in base alla corrispondenza del contenuto con la richiesta dell'utente. I risultati vengono categorizzati per consentire agli utenti di assegnare priorità e concentrarsi sui risultati più rilevanti. Quando l'agente non riesce a determinare il livello di rischio, gli elementi vengono contrassegnati come "non categorizzati", offrendo trasparenza sul livello di attendibilità dell'agente.
Valutazione degli avvisi e riduzione del rumore: gli agenti di valutazione basati sull'intelligenza artificiale esaminano gli avvisi DLP e Insider Risk Management e li classificano come "richiedono attenzione", "meno urgenti" o "non classificati". Questo filtro riduce l'affaticamento degli avvisi e aiuta gli analisti della sicurezza a concentrarsi sulle minacce reali anziché sui falsi positivi.
Progettazione che preserva la privacy: Insider Risk Management, che inserisce i dati in Gestione della postura di sicurezza dei dati, include controlli della privacy come lo pseudonimismo e l'accesso in base al ruolo per garantire la privacy a livello di utente abilitando al tempo stesso l'analisi dei rischi. Il componente Security Copilot segue le procedure di privacy e sicurezza dei dati documentate nella documentazione relativa alla privacy e alla sicurezza dei dati Microsoft Security Copilot.
Meccanismo di feedback nel prodotto: gli utenti possono fornire feedback su ogni risposta Security Copilot contrassegnandolo come "sembra giusto", "ha bisogno di miglioramenti" o "inappropriato". Questo ciclo di feedback consente a Microsoft di migliorare continuamente la qualità e la sicurezza delle risposte generate dall'IA.
Procedure consigliate per la distribuzione e l'adozione di Gestione della postura di sicurezza dei dati
L'IA responsabile è un impegno condiviso tra Microsoft e i suoi clienti. Mentre Microsoft crea applicazioni di intelligenza artificiale con sicurezza, equità e trasparenza al centro, i clienti svolgono un ruolo fondamentale nella distribuzione e nell'uso responsabile di queste tecnologie all'interno dei propri contesti. Per supportare questa partnership, offriamo le procedure consigliate seguenti per i deployer e gli utenti finali per aiutare i clienti a implementare l'IA responsabile in modo efficace.
I deployer e gli utenti finali devono:
Prestare attenzione e valutare i risultati quando si usano Gestione della postura di sicurezza dei dati per decisioni consequenziali o in domini sensibili: le decisioni consequenziali sono quelle che possono avere un impatto legale o significativo sull'accesso di una persona all'istruzione, all'occupazione, alle piattaforme finanziarie, alle prestazioni governative, all'assistenza sanitaria, all'alloggio, alle assicurazioni, alle piattaforme legali o che potrebbero comportare conseguenze fisiche, danni psicologici o finanziari. I domini sensibili, come le piattaforme finanziarie, l'assistenza sanitaria e l'alloggio, richiedono un'assistenza particolare a causa del potenziale impatto sproporzionato su diversi gruppi di persone. Quando si usa l'intelligenza artificiale per le decisioni in queste aree, assicurarsi che gli stakeholder interessati possano comprendere come vengono prese le decisioni, prendere decisioni di appello e aggiornare i dati di input pertinenti.
Valutare considerazioni legali e normative: i clienti devono valutare potenziali obblighi legali e normativi specifici quando usano piattaforme e soluzioni di intelligenza artificiale, che potrebbero non essere appropriate per l'uso in ogni settore o scenario. Inoltre, le piattaforme o le soluzioni di intelligenza artificiale non sono progettate per e non possono essere usate in modi vietati nei termini di servizio applicabili e nei codici di condotta pertinenti.
Gli utenti finali devono:
Esercitare la supervisione umana quando necessario: la supervisione umana è una protezione importante quando si interagisce con le applicazioni di intelligenza artificiale. Anche se miglioriamo continuamente le nostre applicazioni di intelligenza artificiale, l'IA potrebbe comunque commettere errori. Gli output generati possono essere imprecisi, incompleti, distorti, disallineati o irrilevanti per gli obiettivi previsti. Ciò può verificarsi a causa di vari motivi, ad esempio ambiguità negli input o limitazioni dei modelli sottostanti. Di conseguenza, gli utenti devono esaminare le risposte generate da Gestione della postura di sicurezza dei dati e verificare che soddisfino le aspettative e i requisiti.
Tenere presente il rischio di overreliance: l'overreliance sull'IA si verifica quando gli utenti accettano output di intelligenza artificiale errati o incompleti, principalmente perché gli errori negli output di intelligenza artificiale possono essere difficili da rilevare. Per l'utente finale, l'eccessiva affidabilità potrebbe comportare una riduzione della produttività, perdita di fiducia, abbandono dell'applicazione, perdita finanziaria, danni psicologici, danni fisici, tra gli altri. Nel contesto di Gestione della postura di sicurezza dei dati, l'eccessiva attendibilità potrebbe significare agire su informazioni Security Copilot imprecise senza verificarle rispetto ai dati effettivi, causando potenzialmente modifiche dei criteri fuorvianti o rischi per la sicurezza mancanti.
Ambito Security Copilot domande alle aree supportate: per ottenere risultati ottimali, porre domande sugli argomenti relativi alla sicurezza dei dati associati a Gestione dei rischi Insider, Information Protection e Prevenzione della perdita dei dati. Le domande al di fuori di queste aree possono restituire risposte incomplete o imprecise perché non rientrano nei dati Gestione della postura di sicurezza dei dati è progettato per l'analisi.
Usare richieste specifiche e mirate: quando si usa l'esperienza di Security Copilot o l'agente di postura di sicurezza dei dati, fornire richieste chiare e specifiche che includono dettagli pertinenti, ad esempio nomi utente, periodi di tempo e posizioni dei dati. Ad esempio, invece di chiedere "mostra i rischi per la sicurezza", chiedi "mostra tutte le attività dati sensibili eseguite da user@contoso.com negli ultimi 30 giorni". Richieste più specifiche producono risultati più accurati e interattivi.
Fornire feedback per migliorare la qualità: usare l'opzione di feedback nel prodotto per contrassegnare Security Copilot risposte come "sembra giusto", "necessita di miglioramento" o "inappropriato". Questo feedback consente a Microsoft di identificare e risolvere i problemi di qualità nelle risposte generate dall'IA.
I deployer devono:
Configurare le autorizzazioni appropriate prima di concedere l'accesso: assegnare i ruoli minimi necessari a ogni utente in base alle proprie responsabilità. Usare la tabella delle autorizzazioni dettagliata nella documentazione sulle autorizzazioni di Gestione della postura di sicurezza dei dati per determinare quali gruppi di ruoli sono necessari per ogni attività. La limitazione dell'accesso riduce il rischio che utenti non autorizzati visualizzino dati sensibili o esevano azioni impreviste.
Completare tutte le attività di configurazione prima di basarsi sulle informazioni dettagliate: assicurarsi che i criteri di controllo, analisi e raccolta siano configurati correttamente prima di valutare Gestione della postura di sicurezza dei dati informazioni dettagliate. La configurazione incompleta può comportare dati mancanti e metriche di postura imprecise. Consentire un tempo di elaborazione sufficiente (fino a tre giorni per le analisi iniziali, almeno 24 ore per i nuovi criteri) prima di prendere decisioni basate su dati Gestione della postura di sicurezza dei dati.
Usare le ricerche limitate per un'elaborazione efficiente: quando si usa l'agente di postura di sicurezza dei dati, configurare le ricerche per utenti, gruppi o siti specifici anziché eseguire analisi a livello di tenant. Le ricerche limitate sono significativamente più veloci ed efficienti, riducendo i tempi di elaborazione e producendo risultati più mirati.
Esaminare e perfezionare i criteri con un clic dopo la distribuzione: i criteri con un clic rappresentano un punto di partenza utile, ma devono essere esaminati e personalizzati in base ai requisiti specifici dell'organizzazione. Dopo la distribuzione iniziale, monitorare i risultati dei criteri tramite Gestione della postura di sicurezza dei dati report ed Esplora attività e modificare le impostazioni dei criteri nella soluzione corrispondente (DLP, Insider Risk Management o Information Protection) in base alle esigenze di tolleranza e conformità ai rischi dell'organizzazione.
Stabilire una cadenza di revisione regolare: usare i report e le tendenze di postura Gestione della postura di sicurezza dei dati per tenere traccia del comportamento di sicurezza dei dati dell'organizzazione nel tempo. Stabilire una cadenza regolare per esaminare le valutazioni dei rischi dei dati, la copertura dei criteri e le metriche di osservabilità dell'intelligenza artificiale. Le revisioni regolari consentono di identificare i rischi emergenti, le lacune dei criteri e le modifiche nel comportamento degli utenti prima che diventino eventi imprevisti di sicurezza.
Pianificare la configurazione dei criteri di raccolta: se l'organizzazione deve acquisire richieste e risposte da Copilot in Fabric e Security Copilot e per le app per intelligenza artificiale non Copilot, configurare i criteri di raccolta con l'opzione di acquisizione del contenuto selezionata. Per le app che usano questi criteri di raccolta, gli eventi di interazione con intelligenza artificiale in Esplora attività non visualizzeranno il testo della richiesta e della risposta, limitando l'utilità dei dati per il monitoraggio della conformità.
Altre informazioni su Gestione della postura di sicurezza dei dati
Per altre indicazioni o per altre informazioni sull'uso responsabile di Gestione della postura di sicurezza dei dati, è consigliabile esaminare la documentazione seguente:
- Informazioni su Gestione della postura di sicurezza dei dati
- Gestione della postura di sicurezza dei dati (versione classica) - Panoramica della versione precedente
- Attività di installazione per Gestione della postura di sicurezza dei dati
- Considerazioni per Gestione della postura di sicurezza dei dati
- Autorizzazioni per Gestione della postura di sicurezza dei dati
- Evitare la condivisione eccessiva con le valutazioni dei rischi per i dati
- Microsoft Purview protegge la sicurezza dei dati e la conformità per le app di intelligenza artificiale generativa
- Dati, privacy e sicurezza per Microsoft Security Copilot
- Descrizione del servizio Microsoft Purview