Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Panoramica di ISO/IEC 42001:2023
International Organization for Standardization (ISO) è un'organizzazione non governativa indipendente nonché il più grande sviluppatore al mondo di standard internazionali volontari. International Electrotechnical Commission (IEC) è l'organizzazione leader al mondo per la preparazione e la pubblicazione di standard internazionali per tecnologie elettriche, elettroniche e correlate.
ISO/IEC 42001 è uno standard internazionale che specifica i requisiti per stabilire, implementare, mantenere e migliorare continuamente un sistema di gestione dell'intelligenza artificiale (AIMS) all'interno delle organizzazioni. Un sistema di gestione dell'intelligenza artificiale è un set di elementi correlati o interagenti di un'organizzazione destinati a stabilire criteri e obiettivi e processi per raggiungere tali obiettivi, in relazione allo sviluppo, al provisioning o all'uso responsabile dei sistemi di intelligenza artificiale.
ISO/IEC 42001 specifica i requisiti e fornisce indicazioni per stabilire, implementare, mantenere e migliorare continuamente un sistema di gestione dell'intelligenza artificiale nel contesto di un'organizzazione. È progettato per le entità che forniscono o usano prodotti o servizi basati sull'IA, garantendo lo sviluppo responsabile e l'uso dei sistemi di IA. Per le organizzazioni, definisce un modo strutturato per gestire i rischi e le opportunità associate all'IA, bilanciando l'innovazione con la governance.
Microsoft AI servizi nell'ambito della certificazione ISO 42001
- GitHub Copilot
- Microsoft 365 Copilot
- integrità Microsoft Copilot
- Microsoft Copilot Studio
- Microsoft Dragon Copilot
- Microsoft Dragon Copilot (radiologo)
- Microsoft Foundry
- Microsoft Security Copilot
Microsoft e ISO/IEC 42001
I progressi di Microsoft verso la certificazione ISO 42001 rappresentano un risultato fondamentale nella nostra dedizione all'IA responsabile come leader nella ricerca e nella tecnologia per l'IA. In mezzo ai rapidi progressi dell'IA e all'adozione diffusa, Microsoft rimane fermo nel suo impegno nei confronti di quanto segue:
- Miglioramento continuo del sistema di gestione dell'intelligenza artificiale
- Comprendere le esigenze e le aspettative dei clienti
- Identificazione e azione sulle opportunità di creare e mantenere la fiducia nei prodotti e nei servizi di IA
- Collaborazione con la crescente community di professionisti responsabili dell'IA, autorità di regolamentazione e ricercatori per promuovere il nostro approccio responsabile all'IA
Questa certificazione aiuta anche i clienti a supportare le proprie attività di conformità usando servizi di IA certificati e dimostrando il proprio impegno nell'uso di tecnologie di IA sviluppate in modo responsabile.
Questa convalida indipendente garantisce ai clienti l'applicazione del nostro Standard responsabile di intelligenza artificiale per la gestione dei rischi di IA durante tutto il ciclo di vita dell'IA.
Questa certificazione si basa sul lavoro esistente sull'IA responsabile, ad esempio:
- I nostri impegni dei clienti di intelligenza artificiale per assistere i clienti nel loro percorso di intelligenza artificiale responsabile.
- Il nostro primo report sulla trasparenza dell'intelligenza artificiale responsabile che ci consente di registrare e condividere le nostre procedure di scadenza, riflettere su ciò che abbiamo imparato, tracciare i nostri obiettivi, considerarci responsabili e guadagnare la fiducia del pubblico.
- Documentazione sulla trasparenza del sistema di intelligenza artificiale che consente ai clienti di comprendere il funzionamento della tecnologia di intelligenza artificiale, le funzionalità e le limitazioni e le scelte che i proprietari del sistema possono fare per influenzare le prestazioni e il comportamento del sistema.
- Il sito Risorse responsabili per l'intelligenza artificiale fornisce strumenti, procedure, modelli e informazioni che riteniamo aiutino molti clienti a stabilire le procedure di IA responsabili.
Microsoft AI Systems sono sottoposti a regolari controlli di terze parti indipendenti per la conformità ISO/IEC 42001. Per altre informazioni, è possibile esaminare i certificati e i report di controllo di Microsoft ISO/IEC 42001 nel portale di trust del servizio .
Domande frequenti
Perché la certificazione ISO/IEC 42001 è importante?
La certificazione ISO 42001 conferma che una terza parte indipendente ha convalidato l'applicazione da parte di Microsoft del framework e delle funzionalità necessarie per gestire in modo efficace i rischi e le opportunità associati allo sviluppo, alla distribuzione e al funzionamento continui dei sistemi Microsoft AI. Questa convalida indipendente garantisce ai clienti l'applicazione del Standard responsabile per la gestione dei rischi di IA per tutto il ciclo di vita dell'IA.
Dove è possibile ottenere i report di controllo ISO/IEC 42001 e le istruzioni di ambito?
Il portale di attendibilità dei servizi fornisce report e certificati di conformità controllati in modo indipendente.
È possibile usare la conformità ISO/IEC 42001 di Microsoft 365 Copilot nella certificazione dell'organizzazione?
Sì. Se l'azienda richiede la certificazione ISO/IEC 42001 per le implementazioni di sistemi Microsoft AI, è possibile usare la certificazione applicabile nella valutazione della conformità. Si è tuttavia responsabili di coinvolgere un valutatore per valutare i controlli e i processi all'interno della propria organizzazione e l'implementazione per la conformità ISO/IEC 42001.
Risorse
- Report di controllo ISO 42001
- Report sulla trasparenza responsabile dell'intelligenza artificiale 2025
- Sito risorse per intelligenza artificiale responsabile
- Condizioni di Microsoft Online Services
- STANDARD ISO/IEC 42001:2023 (per l'acquisto)
- Scheda applicazione: Microsoft 365 Copilot
- Scheda applicazione per Microsoft Copilot Studio
- Centro protezione GitHub Copilot
- Informazioni sulla navigazione Microsoft Copilot di assistenza
- white paper Dragon Copilot
- Nota sulla trasparenza per Azure OpenAI nei modelli di Microsoft Foundry
- Domande frequenti sull'intelligenza artificiale responsabile - Microsoft Security Copilot