Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Gli agenti di intelligenza artificiale creati con Agent Builder in Microsoft 365 Copilot, Copilot Studio e Microsoft Foundry devono operare entro limiti di sicurezza, governance e conformità di livello aziendale. Devono anche essere gestiti con procedure operative coerenti e scalabili per tutto il ciclo di vita.
Man mano che gli agenti ottengono autonomia, accedono ai dati aziendali e agiscono in tutti i sistemi, le organizzazioni devono garantire la sicurezza in base alla progettazione, regolate per tutto il ciclo di vita e allineate ai requisiti di rischio e conformità aziendali. Inoltre, man mano che gli agenti passano da piloti a flussi di lavoro aziendali quotidiani, l'eccellenza operativa diventa fondamentale per sostenere valore e fiducia.
Questo pilastro è incentrato sul modo in cui le organizzazioni stabiliscono protezioni, controlli, procedure operative e gestione del ciclo di vita necessari per garantire che gli agenti funzionino in modo sicuro, conforme e affidabile su larga scala senza rallentare l'innovazione.
Perché la governance, la sicurezza e le operazioni sono importanti per gli agenti di intelligenza artificiale
Gli agenti amplificano l'intento umano agendo all'interno del contesto di identità, dati e autorizzazioni. Senza procedure operative, di sicurezza e di governance avanzata, questa stessa funzionalità può introdurre rischi attraverso l'esposizione imprevista dei dati, il comportamento incoerente, la responsabilità non chiara, lo sprawl dell'agente o l'aumento dei costi.
La governance, la sicurezza e le operazioni solide forniscono le basi che consentono all'adozione dell'agente di scalare in modo sicuro e sostenibile. Garantiscono che il comportamento dell'agente sia osservabile, controllato e controllabile e che l'aumento dell'autonomia sia associato a diritti decisionali chiari, supervisione del ciclo di vita, monitoraggio proattivo e gestione dei rischi.
Questo approccio integrato consente all'innovazione di progredire senza compromettere la sicurezza, l'affidabilità o l'efficienza operativa.
Cosa significa alto livello di maturità
A maturità elevata, governance, sicurezza e operazioni sono incorporate, scalabili e abilitanti anziché vincolanti.
Caratteristiche di governance e sicurezza:
- Le organizzazioni regolano gli agenti usando standard coerenti a livello aziendale.
- I controlli di identità, accesso ai dati e conformità vengono applicati per impostazione predefinita.
- Le organizzazioni rendono osservabile il comportamento dell'agente tramite log, telemetria e meccanismi di revisione.
- I percorsi di supervisione umana e di escalation sono chiaramente definiti per ogni classe di agenti.
- La governance consente un'adozione più rapida anziché rallentarla.
Caratteristiche operative e del ciclo di vita:
- I team applicano in modo coerente modelli di distribuzione, monitoraggio e manutenzione standardizzati.
- I team definiscono la telemetria operativa, il monitoraggio dell'integrità e la gestione del ciclo di vita in modo da poter valutare, ottimizzare o ritirare gli agenti in base all'utilizzo e al valore reali.
- I team integrano la gestione delle modifiche, la formazione e la comunicazione nelle operazioni per favorire un'adozione e una fiducia durature.
- Gli agenti passano senza problemi dalla sperimentazione agli asset di produzione affidabili, con una chiara responsabilità tra it, sicurezza e stakeholder aziendali.
Caratteristiche dell'IA responsabile:
- Le organizzazioni hanno documentato standard di IA responsabile che convertono i principi in aspettative e procedure concrete.
- Un Consiglio di intelligenza artificiale interfunzionale fornisce supervisione, linee guida ed escalation attive per casi ad alto impatto o ambigui.
- La fiducia, il rischio e l'etica sono integrate in discussioni strategiche e di prestazioni, non solo nella risposta agli incidenti.
- I team monitorano continuamente i segnali di equità, sicurezza, uso improprio e attendibilità nel ciclo di vita dell'agente.
- Le procedure di IA responsabili sono incorporate dalla progettazione in tutti i processi operativi e di distribuzione.
- La leadership fornisce una supervisione visibile e considera l'IA responsabile come un differenziatore strategico e fonte di fiducia.
Le operazioni, la governance e la sicurezza diventano abilitanti dell'innovazione anziché di funzioni di supporto reattivo o vincoli di conformità.
Come leggere la tabella di maturità
La tabella descrive in che modo le funzionalità di governance, sicurezza e operazioni di intelligenza artificiale si evolvono in cinque livelli di maturità.
Per ogni livello, si noti quanto illustrato di seguito:
- Stato della governance e della sicurezza dell'IA: caratteristiche osservabili a tale livello
- Opportunità di progresso: azioni pratiche che consentono la fase successiva di maturità
Le organizzazioni operano spesso a livelli diversi a seconda della criticità dell'agente. Ad esempio, gli agenti di produttività interni potrebbero richiedere controlli più leggeri rispetto agli agenti di gestione dei clienti o del processo decisionale.
Governance dell'intelligenza artificiale e maturità della sicurezza informatica
| livello | Stato della governance e della sicurezza dell'IA | Opportunità di avanzamento |
|---|---|---|
| 100: Iniziale |
Governance e sicurezza:
|
|
| 200: ripetibile |
Governance e sicurezza:
|
|
| 300: Definito |
Governance e sicurezza:
|
|
| 400: Capace |
Governance e sicurezza:
|
|
| 500: Efficiente |
Governance e sicurezza:
|
|
Anti-pattern comuni
Man mano che le organizzazioni maturano la governance e le procedure di sicurezza per l'IA, incontrano sia sfide universali che possono verificarsi a qualsiasi livello e insidie specifiche associate a ogni fase di maturità. Comprendere questi modelli aiuta i team a prevedere ed evitare errori comuni.
Sfide per la governance universale
Questi problemi fondamentali possono compromettere l'efficacia della governance a qualsiasi livello di maturità:
- Nessun inventario e nessuna proprietà: I team creano e condividono agenti senza un registro affidabile, uno stato del ciclo di vita o un proprietario responsabile, il che rende le revisioni e la risposta agli incidenti lenta e incoerente.
- I controlli sono "solo indicazioni" anziché applicabili: I team documentano i criteri ma non li traducono in modo da diventare controlli tecnici applicabili (ad esempio, governance dei dati, politiche dei dati e vincoli di sensibilità), quindi la conformità dipende dal comportamento individuale.
- Strategia dell'ambiente mancante o ignorata: i creatori creano e pubblicano nello stesso ambiente senza separazioni o protezioni chiare, aumentando così il rischio di esposizione accidentale e indeboli il controllo delle modifiche.
- Trattamento di tutti gli agenti come lo stesso (nessun approccio a livelli per rischio e criticità): le organizzazioni applicano un set di controlli a ogni agente. Questo approccio limita eccessivamente gli agenti di produttività personale a basso rischio (alimentando l'AI ombra) o non governa adeguatamente gli agenti di reparto ed essenziali per le missioni (creando lacune nella sicurezza e conformità). È necessario un approccio a livelli perché i requisiti di rischio e governance aumentano man mano che si passa dalla produttività personale al reparto e alla collaborazione tra team e carichi di lavoro aziendali e cruciali.
- I criteri dati e la governance del connettore non vengono considerati come "limite di sicurezza dell'agente": Teams consente agli agenti di connettersi su vasta scala (connettori, azioni, HTTP) senza vincoli di criteri coerenti, che aumentano il rischio di esfiltrazione dei dati e di azioni indesiderate.
- Il controllo e il monitoraggio sono una riflessione successiva: I team non centralizzano i log, non creano dashboard e non connettono i flussi di lavoro del Centro operazioni di sicurezza (SOC) con i dati degli agenti. I team apprendono dei comportamenti a rischio solo dopo l'escalation degli incidenti.
- Il comportamento di sicurezza non viene convalidato continuamente: Teams non si basa sullo stato di protezione del runtime, sulle analisi di sicurezza automatiche (se disponibili) o sulle aspettative di test antagonisti sistematici prima del rilascio e degli aggiornamenti principali.
- La governance dei costi e dell'utilizzo non è gestita: i team non allocano o monitorano i costi di token, utilizzo e capacità, quindi la spesa aumenta senza visibilità e governance non può definire le priorità su cosa ridimensionare o ritirare.
Anti-pattern specifici per livello di maturità
Le diverse sfide emergono man mano che le organizzazioni progredisco attraverso i livelli di maturità:
Livello 100 - Iniziale: "Proliferazione shadow dell'intelligenza artificiale"
Modello: Teams distribuisce gli agenti senza supervisione centrale, controlli di sicurezza o supporto operativo.
Perché accade: mancanza di un framework di governance chiaro. I team si spostano rapidamente per acquisire valore senza attendere gli standard aziendali.
Rischio: vulnerabilità della sicurezza, violazioni della conformità, accesso ai dati non governativo e caos operativo.
Come evitare: stabilire standard di sicurezza e governance di base prima dell'adozione diffusa. Definire percorsi di escalation chiari.
Livello 200 – Ripetibile: "Teatro governance"
Modello: creazione di processi di governance formali che aggiungono overhead senza migliorare significativamente i risultati operativi o di sicurezza.
Perché accade: mentalità di conformità della casella di controllo. Concentrarsi sulla documentazione piuttosto che sulla gestione pratica dei rischi.
Rischio: l'innovazione rallentata senza un autentico miglioramento della sicurezza o dell'affidabilità operativa.
Come evitare: concentrarsi sulla governance sulla mitigazione effettiva dei rischi e sull'efficacia operativa. Misurare il valore di governance.
Livello 300 - Definito: "Silos operativi"
Modello: governance e sicurezza ben definite, ma procedure operative frammentate tra i team.
Perché accade: team diversi sviluppano approcci operativi diversi. Mancanza di standard operativi condivisi.
Rischio: prestazioni incoerenti dell'agente, lavoro duplicato, riduzione dell'efficienza operativa, controllo delle modifiche indebolito.
Come evitare: implementare framework operativi condivisi e strumenti. Stabilire comunità di pratica operativa tra diversi team.
Livello 400 - In grado di supportare la complessità dell'automazione
Modello: governance, sicurezza e operazioni eccessivamente automatizzate fino al punto in cui i sistemi diventano difficili da comprendere o modificare.
Perché accade: il successo con l'automazione crea pressione per automatizzare tutto. Perdita di intuizione operativa.
Rischio: sistemi brittle difficili da risolvere o adattare. Capacità ridotta di gestire i casi limite.
Come evitare: bilanciare l'automazione con la supervisione e la comprensione umana. Mantenere le competenze operative insieme alle funzionalità automatizzate.
Livello 500 – Efficiente: "Stagnazione dell'innovazione"
Modello: eccellenti funzionalità correnti, ma investimenti ridotti in approcci operativi, di governance, sicurezza o operativi di nuova generazione.
Perché accade: il successo crea comfort con gli approcci correnti. L'allocazione delle risorse è incentrata sulla gestione anziché sull'avanzamento.
Rischio: i concorrenti potrebbero sviluppare approcci superiori. Potresti perdere minacce emergenti o opportunità operative.
Come evitare: investire continuamente nelle funzionalità di prossima generazione. Monitorare le tendenze e le tecnologie emergenti.
Operazionalizzazione dell'IA responsabile
Mettere in pratica l'IA responsabile con quattro azioni chiave: impostare gli standard, stabilire la governance, incorporare misure di sicurezza nella distribuzione e nelle operazioni e creare abitudini e cultura del team.
Definire uno standard di intelligenza artificiale responsabile
Usare framework stabiliti, ad esempio i principi di intelligenza artificiale responsabile Microsoft o NIST AI Risk Management Framework, come baseline e quindi adattarli al contesto aziendale. Tradurre i principi in:
- Obiettivi chiari, come ridurre il pregiudizio e garantire la spiegabilità.
- Requisiti concreti, ad esempio punti di controllo, regole di escalation e limiti dei dati.
- Strumenti e procedure pratiche, tra cui valutazioni dell'impatto, test di distorsione e monitoraggio.
Stabilire un Consiglio di intelligenza artificiale
Creare un Consiglio di IA multidisciplinare e interfunzionale per supervisionare e guidare l'adozione dell'IA. I ruoli tipici includono:
- Sponsor esecutivo (direzione strategica e definizione delle priorità)
- Abilitazione delle tecnologie IT e delle piattaforme (preparazione tecnica e governance)
- Gestione delle modifiche (adozione, comunicazioni, feedback)
- Rischio, legale e conformità (IA responsabile, privacy, regolamento)
Il consiglio allinea l'uso dell'IA ai valori dell'organizzazione, esamina i casi d'uso ad alto impatto, riduce i rischi e crea fiducia tra gli stakeholder.
Incorporare l'intelligenza artificiale responsabile nella distribuzione e nelle operazioni
- Avviare ogni progetto di intelligenza artificiale con un kickoff di intelligenza artificiale responsabile: chiedere in che modo il sistema potrebbe causare danni o iniquità e pianificare le mitigazioni in anticipo.
- Assicurarsi che gli utenti sappiano quando interagiscono con l'IA e come vengono prese decisioni.
- Monitorare continuamente gli agenti per l'equità, la sicurezza, l'uso improprio e i segnali di fiducia.
- Considerare l'IA responsabile come una responsabilità operativa continua, non una casella di controllo per l'implementazione.
Creare abitudini e cultura dell'IA responsabile
L'IA responsabile riesce quando diventa parte del funzionamento dei team:
- Incoraggiare i team a documentare decisioni e presupposti.
- Rendi comune e sicuro sollevare preoccupazioni etiche.
- Usare scenari, esercizi radar di rischio e analisi retrospettive per praticare la risposta.
- Rafforzare che l'IA responsabile è il lavoro di tutti, non solo per la governance.
Evitare insidie di intelligenza artificiale responsabile
Le organizzazioni che faticano a scalare gli agenti di intelligenza artificiale spesso incontrano le seguenti sfide con l'implementazione dell'IA responsabile. Questi approcci creano rischi nascosti che emergono solo dopo che si verificano blocchi o eventi imprevisti di adozione.
Confondere l'IA responsabile solo con la sicurezza o la conformità
Modello: considerare l'IA responsabile come sinonimo di sicurezza dei dati o conformità alle normative.
Perché questo approccio crea rischi:
- Si perdono rischi di fiducia, ad esempio equità, spiegazione e fiducia dei dipendenti.
- I sistemi potrebbero essere conformi ma comunque rifiutati dagli utenti.
- L'adozione rallenta anche quando la tecnologia funziona.
Trattare l'IA responsabile come una revisione una tantum
Modello: trattare l'intelligenza artificiale responsabile come elenco di controllo della pre-distribuzione o passo finale. Una volta che un agente è attivo, i team considerano il lavoro completato.
Perché questo approccio crea rischi:
- I sistemi di intelligenza artificiale cambiano nel tempo man mano che i prompt, i dati e i modelli di utilizzo si evolvono.
- La distorsione, l'uso improprio e la deriva della fiducia in genere appaiono dopo la messa in produzione, non prima.
- I team non sono preparati quando si verificano problemi e ricorrono ad arresti reattivi.
Questo approccio porta direttamente al modello di risposta "panico e spegnere le cose" evidenziato negli scenari di maturità.
Affidarsi a conversazioni etiche informali
Modello: le preoccupazioni etiche dipendono dal fatto che qualcuno nella stanza le sollevi. Il team non ha standard, ruoli o percorsi di escalation definiti.
Perché questo approccio crea rischi:
- La copertura dei rischi diventa incoerente tra team e domini.
- Il team perde casi d'uso ad alto impatto che richiedono un esame appropriato.
- La responsabilità non è chiara quando qualcosa va storto.
Questo approccio riflette la maturità di livello 100-200, in cui esiste la consapevolezza, ma l'azione non è uniforme.
Nessun consiglio di IA o un consiglio senza alcuna autorità
Modello: un Consiglio di intelligenza artificiale esiste "su carta" o come forum di discussione, ma non dispone di un chiaro mandato, diritti decisionali o sponsorizzazione esecutiva.
Perché questo approccio crea rischi:
- I team ignorano o applicano le linee guida in modo selettivo.
- I team ignorano la governance per spostarsi più velocemente.
- I team di rischio, legale, IT e cambiamento rimangono non allineati.
Senza autorità, il consiglio non può impedire ostacoli successivi nella consegna, il che rallenta l'adozione anziché abilitarla.
In attesa di incidenti per apprendere
Modello: i team presuppongono che "affronteranno i problemi se si verificano" invece di preparare in anticipo i piani di risposta.
Perché questo approccio crea rischi:
- Le risposte sono reattive e incoerenti.
- L'apprendimento è doloroso, pubblico e costoso.
- La fiducia nell'intelligenza artificiale si riduce rapidamente dopo il primo evento imprevisto.
Le organizzazioni con maturità elevata progettano strategie di risposta prima che si verifichi un problema.
Rischi comuni quando non si rende operativa l'IA responsabile
Quando non si incorpora l'intelligenza artificiale responsabile nella distribuzione e nelle operazioni o quando non è presente un Consiglio di intelligenza artificiale efficace, i rischi emergono durante il recapito, nelle operazioni e a livello di organizzazione.
-
Durante il recapito:
- Teams distribuisce agenti incapaci di spiegare le decisioni agli utenti.
- La distorsione o i risultati ingiusti emergono in flussi di lavoro ad alto impatto, ad esempio risorse umane, finanza e servizio clienti.
- Nessuno sa chi deve approvare le modifiche o interrompere la distribuzione.
-
Nelle operazioni:
- Gli eventi imprevisti attivano risposte di emergenza anziché un'indagine strutturata.
- Le squadre disattivano completamente gli agenti, ritornando al lavoro con processi manuali.
- La fiducia nell'intelligenza artificiale si riduce nell'organizzazione, non solo per un caso d'uso.
-
A livello di organizzazione:
- I leader perdono fiducia nell'autonomia dell'agente.
- L'adozione si blocca nonostante le forti capacità tecniche.
- I team vedono gli agenti come rischiosi anziché strategici.
Usare il radar di rischio di intelligenza artificiale responsabile per identificare e mitigare i rischi degli agenti
Il radar del rischio di intelligenza artificiale responsabile è un'attività leggera e ripetibile che consente di identificare, classificare in ordine di priorità e affrontare i rischi di intelligenza artificiale responsabile prima di distribuire gli agenti nell'ambiente di produzione.
Invece di considerare l'IA responsabile come controllo finale della conformità, il radar dei rischi incorpora il pensiero dei rischi direttamente nella distribuzione e nelle operazioni. Supporta la governance proattiva e una scala affidabile. I team di consegna, i centri di eccellenza e i consigli di intelligenza artificiale possono eseguire questa attività. Possono riutilizzarla nei punti chiave del ciclo di vita dell'agente (progettazione, versione preliminare, revisione post-evento imprevisto).
Il radar di rischio aiuta i team:
- Rendere visibili i rischi dell'IA responsabile e facili da discutere.
- Ancora i rischi per i sei principi di IA responsabile: equità, trasparenza, responsabilità, affidabilità e sicurezza, privacy e sicurezza e inclusività.
- Classificare in ordine di priorità i rischi in base all'impatto e alla probabilità.
- Tradurre i rischi in azioni concrete e abitudini del team.
- Fornire input strutturato a un forum di governance o consiglio di intelligenza artificiale.
Usare il radar di rischio quando:
- Progettazione di un nuovo agente di intelligenza artificiale o di una funzionalità ad alto impatto.
- Preparazione di un agente per l'implementazione in ambiente di produzione.
- Analisi di un evento imprevisto o di un problema di attendibilità.
- Verifica del comportamento dell'agente come parte delle operazioni in corso.
- Supporto delle revisioni del Consiglio di intelligenza artificiale su casi d'uso sensibili o tra domini.
Come usare il radar di rischio
Eseguire una sessione radar di rischio di intelligenza artificiale responsabile attenendosi alla procedura seguente:
Selezionare un caso d'uso concreto: iniziare con uno scenario specifico, ad esempio un agente del servizio clienti con accesso CRM o un agente di supporto decisionale delle risorse umane. Evitare discussioni astratte. I casi d'uso reali mettono in evidenza i rischi reali.
Identificare i rischi attraverso i principi di IA Responsabile: come gruppo, fate un brainstorming dei potenziali rischi nelle seguenti categorie:
- Equità
- Trasparenza
- Responsabilità
- Affidabilità e sicurezza
- Privacy e sicurezza
- Inclusività
Rilevare i rischi senza filtrare. In questa fase, mirare alla copertura, non alla perfezione.
Mappare i rischi sul radar di rischio: posizionare ogni rischio identificato su un radar di rischio usando due dimensioni:
- Impatto (basso → alto): quanto grave sarebbe l'impatto se si verificasse questo rischio?
- Probabilità (improbabile → probabile): come è probabile che questo rischio sia dato dalla progettazione corrente?
Questo mapping visivo consente di distinguere rapidamente tra i casi limite con priorità bassa e i rischi ad alto impatto e alta probabilità che richiedono attenzione immediata.
Scenario di esempio: l'organizzazione ha distribuito un agente per gestire le query e i reclami dei clienti in più canali, ad esempio posta elettronica, chat e voce. L'agente si integra con i sistemi CRM (Customer Relationship Management) e ha accesso alla cronologia dei clienti, alle preferenze e ai dati delle transazioni. L'agente può inoltrare casi complessi agli agenti umani.
Radar dei rischi: diagramma di una matrice radar che mappa i rischi dell'intelligenza artificiale in base all'impatto e alla probabilità, con quadranti colorati e post-it per ogni rischio.
Definire azioni e abitudini per i principali rischi: per i due-tre rischi con priorità più alta, definire:
- Un'azione, ad esempio l'introduzione di un passaggio di approvazione umana, che coinvolge il Consiglio di intelligenza artificiale o aggiunge il monitoraggio.
- Abitudine o comportamento da incorporare nella pratica del team, ad esempio una revisione di spiegazione obbligatoria prima del rilascio.
Esempio:
Rischio Principio dell'IA responsabile Impatto Probabilità Action Abitudine I clienti non sanno che interagiscono con l'intelligenza artificiale Trasparenza Alto Poco probabile Imporre la spiegazione, la divulgazione e le citazioni in modo che gli utenti siano chiaramente informati quando è coinvolto un agente di intelligenza artificiale. Esaminare regolarmente i casi in cui la trasparenza potrebbe essere più chiara. Nessun percorso di escalation chiaro quando l'agente fornisce risposte dannose Responsabilità Alto Poco probabile Creare un protocollo di escalation dell'intelligenza artificiale che definisce quando e come l'agente deve passare a un operatore umano. Campioni RAI nei team di supporto. Nominare i proprietari per far emergere le lacune di escalation in anticipo. Le decisioni di escalation sono distorte dai dati storici Equità Alto Probabile Eseguire controlli di distorsione regolari usando test case diversi e documentare le azioni correttive. Sfide di individuazione dei pregiudizi. Eseguire esercizi periodici per identificare e correggere i comportamenti distorti. Agent inventa risposte quando non è sicuro anziché eseguire l'escalation. Trasparenza Alto Probabile Creare un protocollo di escalation di intelligenza artificiale con soglie chiare per l'incertezza e gli argomenti sensibili. RAI retrò nelle recensioni di supporto. Includere un "momento RAI" nelle retrospettive settimanali. Ambiguità temporanea sugli utenti che devono approvare una modifica della configurazione non critica Responsabilità Low Poco probabile Stabilire un Consiglio di intelligenza artificiale per chiarire i diritti decisionali e la proprietà. Campioni RAI nei team di supporto. Rafforzare la proprietà per le modifiche a basso rischio. Variazioni minori nella formulazione o nel tono si manifestano nelle risposte degli agenti per utenti diversi. Equità Low Poco probabile Eseguire controlli di distorsione regolari per esaminare il tono e la coerenza del linguaggio. Sfide di individuazione dei pregiudizi. Incoraggiare i team a contrassegnare le lievi distorsioni in anticipo. L'inclinazione dei dati di training verso scenari comuni richiede una revisione periodica Equità Low Probabile Implementare una checklist di revisione per l'IA responsabile che include controlli sul bilanciamento dei dati. Ciclo di feedback dei clienti. Esaminare le risposte contrassegnate ogni settimana per rilevare la deriva. Agent tenta di accedere ai dati all'esterno dell'ambito previsto, ma i controlli bloccano la richiesta Privacy e sicurezza Low Probabile Implementare una checklist di revisione dell'AI Responsabile allo scopo di convalidare i limiti di accesso ai dati. Ciclo di feedback dei clienti. Monitorare i tentativi di accesso bloccati e i modelli.
Questo approccio garantisce che l'IA responsabile passi dalla consapevolezza all'esecuzione e alla cultura.
Uso di questo pilastro in pratica
Per la progettazione della governance: usare questo pilastro per creare framework di governance che consentono all'innovazione di gestire i rischi e garantire la conformità.
Per l'implementazione della sicurezza: applicare questo pilastro per stabilire controlli di sicurezza che proteggono agenti e dati senza ostacolare l'esperienza utente o l'efficienza operativa.
Per l'eccellenza operativa: usare questo pilastro per creare procedure operative che assicurano che gli agenti rimangano affidabili, efficienti e preziosi per tutto il ciclo di vita.
Passo successivo
L'articolo successivo illustra come creare basi tecniche e strategie di dati scalabili e sicure per l'adozione dell'agente di intelligenza artificiale.
Informazioni pertinenti
- Amministrazione e gestione degli agenti
- Sicurezza e governance del sistema di controllo Copilot
- documentazione di Microsoft Agent 365
- Sito di adozione di Microsoft 365 Copilot
- Sito di adozione degli agenti di intelligenza artificiale
- Dati, privacy e sicurezza per Microsoft 365 Copilot
- Sicurezza e governance di Copilot Studio
- Gestire i progetti di Copilot Studio
- Governance e sicurezza per gli agenti di intelligenza artificiale nell'organizzazione