Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Man mano che le organizzazioni usano sempre più modelli di intelligenza artificiale per favorire l'automazione, le informazioni dettagliate e il processo decisionale intelligente, i team di sicurezza necessitano di visibilità e controllo per valutare la sicurezza e la conformità dei modelli di intelligenza artificiale che entrano negli ambienti. Questi modelli hanno spesso accesso ampio ai dati e all'infrastruttura. Senza queste funzionalità, diventa sempre più difficile applicare standard interni.
La sicurezza di Microsoft Defender for Cloud per intelligenza artificiale supporta l'analisi dei modelli di intelligenza artificiale. L'analisi dei modelli di intelligenza artificiale offre il rilevamento proattivo di artefatti non sicuri o dannosi e monitora continuamente i modelli per il rischio durante il ciclo di vita dell'intelligenza artificiale.
La sicurezza del modello di intelligenza artificiale analizza automaticamente i modelli di intelligenza artificiale per individuare rischi per la sicurezza, ad esempio malware incorporato, operatori non sicuri e segreti esposti prima che questi modelli raggiungano la produzione. Integrato direttamente con le pipeline di Azure Machine Learning e CI/CD, il servizio presenta risultati in tempo reale e linee guida per la correzione pratica, in modo che i team possano arrestare i modelli rischiosi nelle prime fasi del processo di sviluppo.
Usando la sicurezza del modello di intelligenza artificiale, i team di sicurezza possono analizzare modelli di intelligenza artificiale personalizzati caricati in aree di lavoro e registri di Azure Machine Learning per identificare minacce come malware incorporato, operatori non sicuri e segreti esposti. Defender for Cloud presenta i risultati, offrendo ai team visibilità sui risultati della sicurezza insieme a classificazioni di gravità, indicazioni sulla correzione e metadati del modello pertinenti per supportare la valutazione e la definizione delle priorità efficaci. Gli sviluppatori possono anche attivare le analisi dei modelli durante le fasi di compilazione o rilascio usando gli strumenti dell'interfaccia della riga di comando integrati con le pipeline di Azure DevOps o GitHub, abilitando l'analisi statica e il rilevamento precoce dei rischi prima che i modelli raggiungano la produzione.
Prerequisiti
- È necessario avere una sottoscrizione di Azure che contiene modelli di intelligenza artificiale registrati nei registri o nelle aree di lavoro di Azure Machine Learning (Azure Machine Learning).
Annotazioni
Le aree di lavoro e i registri che usano un collegamento privato non sono supportati.
Abilitare il piano di gestione della postura di sicurezza di Defender per il cloud.
È necessario abilitare la protezione dalle minacce per i servizi di intelligenza artificiale e il componente di sicurezza del modello di intelligenza artificiale del piano.
Autorizzazioni necessarie: per abilitare il piano, sono necessarie autorizzazioni a livello di proprietario o collaboratore per le risorse di Azure Machine Learning.
Formati di file del modello supportati:
Pickle (.pkl),HDF5 (.h5)TorchScript (.pt),ONNX (.onnx),SafeTensors (.safetensors),TensorFlow SavedModel / TFLite (FlatBuffers)NumPy (.npy),Arrow, MsgPack, dill, joblib.PMML, JSON, POJO, MOJO, GGUFLimite di dimensioni del file: 10 GB. I file modello di dimensioni superiori a 10 GB non possono essere analizzati.
L'analisi viene eseguita una volta alla settimana.
Individuare tutti i modelli di intelligenza artificiale nell'ambiente
Accedi al portale di Azure.
Cercare e selezionare Microsoft Defender for Cloud.
Selezionare Cloud Security Explorer.
Selezionare AI & Mls>AI models.
Selezionare Fine.
Seleziona +.
Selezionare Metadati>Metadati del modello di IA.
Seleziona Cerca.
Cloud Security Explorer visualizza tutti i modelli di intelligenza artificiale nell'ambiente in uso. È possibile selezionare Visualizza dettagli per visualizzare altre informazioni su ogni modello selezionato.
Individuare i modelli di intelligenza artificiale con rilievi di sicurezza
Usare Cloud Security Explorer per trovare modelli di intelligenza artificiale con risultati di sicurezza attivi.
Seguire i passaggi da 1 a 7 nella sezione Individuare tutti i modelli di intelligenza artificiale nell'ambiente .
Seleziona +.
Selezionare Raccomandazioni>Tutte le raccomandazioni.
Seleziona Cerca.
Cloud Security Explorer visualizza tutti i modelli di intelligenza artificiale nell'ambiente in cui sono presenti risultati di sicurezza attivi. Selezionare Visualizza dettagli per visualizzare altre informazioni su ogni modello e sui risultati associati.
Individuare tutti i modelli di intelligenza artificiale nell'ambiente
La pagina Asset del portale di Defender offre una visualizzazione completa di tutti i modelli di intelligenza artificiale nell'ambiente in uso.
Accedere al portale Microsoft Defender.
Passare a Assets>Cloud>AI>Modelli AI.
Selezionare un modello di intelligenza artificiale con raccomandazioni.
Selezionare Apri la pagina delle risorse.
Selezionare Raccomandazioni di sicurezza> la raccomandazione pertinente.
Esaminare e correggere l'individuazione di sicurezza secondo necessità.
È anche possibile gestire la raccomandazione nel portale di Azure.