Freigeben über


Aktivieren des Bedrohungsschutzes für KI-Dienste

Bedrohungsschutz für KI-Dienste in Microsoft Defender für Cloud schützt Microsoft Foundry-Workloads in einem Azure-Abonnement, indem Einblicke zu Bedrohungen bereitgestellt werden, die sich auf Ihre generativen KI-Anwendungen und -Agents auswirken können.

Voraussetzungen

Aktivieren des Bedrohungsschutzes für KI-Dienste

  1. Melden Sie sich beim Azure-Portal an.

  2. Suchen Sie nach Microsoft Defender for Cloud, und wählen Sie es aus.

  3. Wählen Sie im Menü von Defender for Cloud die Option Umgebungseinstellungen aus.

  4. Wählen Sie das relevante Azure-Abonnement aus.

  5. Schalten Sie auf der Seite "Defender-Pläne" die KI-Dienste auf "Ein".

    Screenshot, der zeigt, wie Sie den Bedrohungsschutz für KI-Dienste aktivieren.

Aktivieren der Komponenten des Plans

Mit aktivierten AI Services Threat Protection-Plan können Sie steuern, ob die verschiedenen Komponenten des Plans aktiviert sind. Dazu gehören:

  • Verdächtige Eingabeaufforderungsbeweise: Erhalten Sie Alarmmitteilungen für verdächtige Teile von Benutzeranfragen und Modellantworten, um KI-bezogene Sicherheitswarnungen zu analysieren, wobei sensible und vertrauliche Daten automatisch geschwärzt werden. Diese Schnipsel werden im Defender-Portal als Teil des Beweismaterials jeder einzelnen Warnung angezeigt.

  • Datensicherheit für KI-Interaktionen: Ermöglicht Microsoft Purview, auf Eingabeaufforderungen, Antworten und zugehörige Metadaten zuzugreifen und diese zu analysieren, um Funktionen für Datensicherheit und Compliance bereitzustellen, z. B. SIT-Klassifizierung, Überwachung, Insider-Risiko, Kommunikationscompliance und eDiscovery. Es handelt sich um ein kostenpflichtiges Purview-Feature und ist nicht im Defender for AI Services-Plan enthalten.

  • KI-Modellsicherheit: Die KI-Modellüberprüfung bietet Ihnen eine klare, einheitliche Ansicht aller Modelle, die in Azure Machine Learning Registries registriert sind. Es hilft Teams, vor Sicherheitsrisiken zu bleiben, indem automatisch nach Problemen wie Serialisierungsrisiken, Schadsoftware und fehlenden Scans gesucht wird. Durch das Erkennen von Fehlkonfigurationen und der nahtlosen Integration in Defender for Cloud- und Entwicklerworkflows wird sichergestellt, dass Ihre KI-Modelle kontinuierlich geschützt und für die Produktion bereit sind.

Aktivieren von verdächtigen Eingabeaufforderungsbeweisen

Mit aktivierten AI Services Threat Protection-Plan können Sie steuern, ob Warnungen verdächtige Segmente direkt aus den Eingabeaufforderungen Ihres Benutzers oder den Modellantworten Ihrer KI-Anwendungen oder Agents enthalten. Die Aktivierung von Beweisen zu Prompts von Benutzern hilft Ihnen bei der Triage und Klassifizierung von Warnungen und den Absichten Ihrer Benutzer.

Beweise für Benutzerprompts bestehen aus Prompts und Modellantworten. Beide werden als Ihre Daten betrachtet. Die Beweise sind über das Azure-Portal, das Defender-Portal und alle angebundenen Partnerintegrationen verfügbar.

Wenn der Nachweis der Benutzeraufforderung deaktiviert ist, analysiert Microsoft Defender für Cloud weiterhin Aufforderungen und Antworten zur Bedrohungserkennung, aber der Aufforderungsinhalt wird in Warnungen maskiert.

  1. Melden Sie sich beim Azure-Portal an.

  2. Suchen Sie nach Microsoft Defender for Cloud, und wählen Sie es aus.

  3. Wählen Sie im Menü von Defender for Cloud die Option Umgebungseinstellungen aus.

  4. Wählen Sie das relevante Azure-Abonnement aus.

  5. Suchen Sie KI-Dienste, und wählen Sie "Einstellungen" aus.

    Screenshot, der zeigt, wo sich die Schaltfläche

  6. Schalten Sie die Option „Beweis für Benutzerprompts aktivieren“ auf Ein um.

    Screenshot: Umschalten der Option „Beweis für Benutzerprompts“ auf „Ein“.

  7. Wählen Sie Weiter.

Aktivieren der Datensicherheit für Microsoft Foundry mit Microsoft Purview

Hinweis

Dieses Feature erfordert eine Microsoft Purview-Lizenz, die nicht im Microsoft Defender for Cloud Defender for AI Services-Plan enthalten ist.

Informationen zu den ersten Schritten mit Microsoft Purview DSPM für KI finden Sie unter Einrichten von Microsoft Purview DSPM für KI.

Aktivieren Sie Microsoft Purview, um auf Eingabeaufforderungs- und Antwortdaten ( einschließlich zugehöriger Metadaten ) von Microsoft Foundry zuzugreifen, zu verarbeiten und zu speichern. Diese Integration unterstützt wichtige Sicherheits- und Complianceszenarien wie:

  • Klassifizierung des Typs vertraulicher Informationen (SIT)

  • Analyse und Berichterstellung über Microsoft Purview DSPM für KI

  • Insider-Risikomanagement

  • Kommunikationskonformität

  • Microsoft Purview-Überwachung

  • Verwaltung des Datenlebenszyklus

  • eDiscovery

Diese Funktion hilft Ihrer Organisation, KI-generierte Daten in Übereinstimmung mit Unternehmensrichtlinien und behördlichen Anforderungen zu verwalten und zu überwachen.

Hinweis

Die Microsoft Purview-Integration enthält keine Daten oder den Kontext von Foundry-Agents. Die Unterstützung für die Integration von Foundry Agent ist zurzeit nicht verfügbar und wird in zukünftigen Updates kommuniziert, falls geplant.

Hinweis

Datensicherheitsrichtlinien für Microsoft Foundry-Interaktionen werden nur für API-Aufrufe unterstützt, die die Microsoft Entra ID-Authentifizierung mit einem Benutzerkontexttoken verwenden, oder für API-Aufrufe, die explizit den Benutzerkontext enthalten. Weitere Informationen finden Sie unter "Gewinnen des Endbenutzerkontexts für Azure AI-API-Aufrufe". Für alle anderen Authentifizierungsszenarien werden Benutzerinteraktionen, die in Purview erfasst wurden, nur im Purview-Audit und DSPM für AI Activity Explorer angezeigt.

  1. Melden Sie sich beim Azure-Portal an.

  2. Suchen Sie nach Microsoft Defender for Cloud, und wählen Sie es aus.

  3. Wählen Sie im Menü von Defender for Cloud die Option Umgebungseinstellungen aus.

  4. Wählen Sie das relevante Azure-Abonnement aus.

  5. Suchen Sie KI-Dienste, und wählen Sie "Einstellungen" aus.

  6. Schalten Sie die Datensicherheit für KI-Interaktionen auf "Ein".  

    Screenshot, der zeigt, wo sich die Umschaltfläche für KI-Interaktionen befindet.

  7. Wählen Sie Weiter.

Problembehandlung

Wenn Nach dem Aktivieren des Umschalters keine Benutzerinteraktionen für authentifizierte Entra-ID-Benutzer im Microsoft Purview-Aktivitäts-Explorer angezeigt werden, führen Sie die folgenden Schritte aus, um Probleme zu beheben:

Führen Sie die folgenden Befehle in Azure PowerShell aus

  1. Installieren Sie die folgenden Az-Module (falls erforderlich):
    Install-Module -Name Az -AllowClobber
    Import-Module Az.Accounts
    
  2. Stellen Sie eine Verbindung mit Azure PowerShell als Mandantenadministrator her:
    Connect-AzAccount -Tenant $yourTenantIdHere
    
  3. Auf der sich öffnenden Webseite melden Sie sich mit den Anmeldedaten Ihres Mandantenadministrators an.
  4. Überprüfen Sie, ob sich der Microsoft Purview-Dienstprinzipal in Ihrem Microsoft-Mandanten befindet:
    Get-AzADServicePrincipal -ApplicationId "9ec59623-ce40-4dc8-a635-ed0275b5d58a"
    
  5. Wenn der Dienstprinzipal nicht vorhanden ist, fügen Sie dem Mandanten den Microsoft Purview-App-Dienstprinzipal hinzu:
    New-AzADServicePrincipal -ApplicationId "9ec59623-ce40-4dc8-a635-ed0275b5d58a"
    

Aktivieren der KI-Modellsicherheit

KI-Modellsicherheit in Defender für Cloud bietet Organisationen proaktiven Schutz für Modelle des maschinellen Lernens. Der Dienst überprüft Modelle auf Sicherheitsrisiken, z. B. eingebettete Schadsoftware, unsichere Operatoren und offengelegte Geheimnisse, bevor Modelle zur Produktion gelangen.

Durch die direkte Integration in Azure Machine Learning-Arbeitsbereiche, Registrierungen und kontinuierliche Integrations- und Bereitstellungspipelines (CI/CD) bietet die AI-Modellsicherheit den Sicherheitsteams Einblick in den Sicherheits- und Konformitätsstatus der KI-Modelle in ihren Umgebungen.

  1. Melden Sie sich beim Azure-Portal an.

  2. Suchen Sie nach Microsoft Defender for Cloud, und wählen Sie es aus.

  3. Wählen Sie im Menü von Defender for Cloud die Option Umgebungseinstellungen aus.

  4. Wählen Sie das relevante Azure-Abonnement aus.

  5. Suchen Sie KI-Dienste, und wählen Sie "Einstellungen" aus.

  6. Aktivieren Sie die Sicherheit des KI-Modells auf "Ein".

    Screenshot, der zeigt, wo sich der Umschalter für die KI-Modellsicherheit befindet.

  7. Wählen Sie Weiter.

Erfahren Sie mehr über die Sicherheit des KI-Modells.