Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
KI-Agents, die mit Agent Builder in Microsoft 365 Copilot, Copilot Studio und Microsoft Foundry erstellt wurden, müssen innerhalb von Sicherheits-, Governance- und Compliancegrenzen auf Unternehmensniveau arbeiten. Sie müssen auch mit konsistenten, skalierbaren betrieblichen Praktiken während des gesamten Lebenszyklus verwaltet werden.
Während Agenten Autonomie erlangen, auf Geschäftsdaten zugreifen und Maßnahmen systemübergreifend ergreifen, müssen Organisationen sicherstellen, dass sie von Anfang an sicher sind, über ihren gesamten Lebenszyklus hinweg reguliert werden und den Anforderungen an Risiko- und Compliance-Vorgaben des Unternehmens entsprechen. Darüber hinaus wird die operative Exzellenz bei der Umstellung von Pilotprojekten in tägliche Geschäftsworkflows von entscheidender Bedeutung, um Wert und Vertrauen aufrechtzuerhalten.
Diese Säule konzentriert sich darauf, wie Organisationen die Leitplanken, Kontrollen, Betriebspraktiken und die Verwaltung des Lebenszyklus einrichten, die erforderlich sind, um sicherzustellen, dass Agenten sicher, konform und zuverlässig in großem Maßstab arbeiten, ohne die Innovation zu verlangsamen.
Warum Governance, Sicherheit und Betrieb für KI-Agents wichtig sind
Agents verstärken menschliche Absichten, indem sie im Kontext von Identität, Daten und Berechtigungen handeln. Ohne starke Governance, Sicherheits- und Betriebspraktiken kann diese Fähigkeit Risiken durch unbeabsichtigte Datenexposition, inkonsistentes Verhalten, unklare Verantwortlichkeit, unkontrollierte Expansion von Agenten oder steigende Kosten einführen.
Starke Governance, Sicherheit und Operationen bieten die Grundlage, die die Agentakzeptanz sicher und nachhaltig skalieren lässt. Sie stellen sicher, dass das Agentverhalten feststellbar, kontrolliert und auditierbar ist und dass eine zunehmende Autonomie mit klaren Entscheidungsrechten, Lebenszyklusüberwachung, proaktiver Überwachung und Risikomanagement übereinstimmt.
Dieser integrierte Ansatz trägt zum Fortschritt der Innovation bei, ohne die Sicherheit, Zuverlässigkeit oder betriebliche Effizienz zu beeinträchtigen.
Wie hohe Reife aussieht
Bei hoher Reife sind Governance, Sicherheit und Vorgänge eingebettet, skalierbar und förderlich, anstatt einschränkend.
Governance- und Sicherheitsmerkmale:
- Organisationen steuern Agents mit konsistenten, unternehmensweiten Standards.
- Identitätskontrollen, Datenzugriffskontrollen und Compliance-Kontrollen werden automatisch durchgesetzt.
- Organisationen machen das Agentverhalten durch Protokolle, Telemetrie und Überprüfungsmechanismen feststellbar.
- Menschliche Aufsichts- und Eskalationspfade sind für jede Agentklasse klar definiert.
- Governance ermöglicht eine schnellere Einführung, anstatt sie zu verlangsamen.
Betriebs- und Lebenszyklusmerkmale:
- Teams wenden standardisierte Bereitstellungs-, Überwachungs- und Wartungsmuster konsistent an.
- Teams definieren betriebliche Telemetrie, Gesundheitsüberwachung und Lebenszyklusverantwortung, damit sie Agenten basierend auf realer Nutzung und Wert auswerten, optimieren oder zurückziehen können.
- Teams integrieren Änderungsmanagement, Schulungen und Kommunikation in ihre Abläufe, um eine dauerhafte Akzeptanz und Vertrauen zu fördern.
- Agenten wechseln reibungslos von Experimenten zu zuverlässigen Produktionsressourcen, mit eindeutiger Verantwortlichkeit für IT, Sicherheit und Geschäftsbeteiligte.
Verantwortungsvolle KI-Merkmale:
- Organisationen haben verantwortungsvolle KI-Standards dokumentiert, die Prinzipien in konkrete Erwartungen und Praktiken übersetzen.
- Ein funktionsübergreifender KI-Rat bietet eine aktive Aufsicht, Anleitung und Eskalation für besonders wirkungsvolle oder mehrdeutige Fälle.
- Vertrauen, Risiko und Ethik sind in strategische und Leistungsdiskussionen integriert, nicht nur die Reaktion auf Vorfälle.
- Teams überwachen kontinuierlich auf Fairness, Sicherheit, Missbrauch und Vertrauenssignale während des gesamten Agent-Lebenszyklus.
- Verantwortungsvolle KI-Praktiken sind designübergreifend in alle Liefer- und Betriebsprozesse eingebettet.
- Führung bietet sichtbare Aufsicht und behandelt verantwortungsvolle KI als strategische Unterscheidungs- und Vertrauensquelle.
Betrieb, Governance und Sicherheit werden zu Innovationsförderern und nicht zu reaktiven Supportfunktionen oder Compliance-Beschränkungen.
So lesen Sie die Fälligkeitstabelle
In der Tabelle wird beschrieben, wie sich die Governance-, Sicherheits- und Betriebsfähigkeiten künstlicher Intelligenz über fünf Reifestufen weiterentwickeln.
Beachten Sie für jede Ebene Folgendes:
- Zustand der KI-Governance und -Sicherheit: Observable Merkmale auf dieser Ebene
- Möglichkeit zum Fortschritt: Praktische Maßnahmen, die die nächste Reifestufe ermöglichen
Organisationen arbeiten häufig auf unterschiedlichen Ebenen, je nach Agent-Kritischität. Beispielsweise benötigen interne Produktivitätsagenten möglicherweise leichtere Kontrollen als kundenorientierte oder Entscheidungsträger.
KI-Governance und Sicherheitsreife
| Grad | Zustand der KI-Governance und -Sicherheit | Möglichkeit zum Fortschritt |
|---|---|---|
| 100: Initial |
Governance und Sicherheit:
|
|
| 200: Wiederholbar |
Governance und Sicherheit:
|
|
| 300: Definiert |
Governance und Sicherheit:
|
|
| 400: Fähig |
Governance und Sicherheit:
|
|
| 500: Effizient |
Governance und Sicherheit:
|
|
Allgemeine Antimuster
Da Organisationen ihre KI-Governance- und Sicherheitspraktiken entwickelt haben, begegnen sie sowohl universellen Herausforderungen, die auf jeder Ebene auftreten können, als auch spezifische Fallstricke, die jeder Reifestufe zugeordnet sind. Wenn Sie diese Muster verstehen, können Teams häufige Fehler antizipieren und vermeiden.
Herausforderungen der universalen Governance
Diese grundlegenden Probleme können die Effektivität der Governance auf jeder Reifeebene untergraben:
- Kein Inventar und keine Zuständigkeit: Teams erstellen und teilen Agenten, ohne ein zuverlässiges Registrierungs- oder Lebenszyklus-Status und ohne einen verantwortlichen Besitzer, was Audits und die Reaktion auf Vorfälle langsam und inkonsistent macht.
- Kontrollen sind "nur Anleitungen" statt durchsetzbar: Teams dokumentieren Richtlinien, übersetzen diese jedoch nicht in durchsetzbare technische Kontrollen (z. B. Datengovernance, Datenrichtlinien und Einschränkungen bei der Vertraulichkeit), sodass die Compliance von individuellem Verhalten abhängt.
- Fehlende oder ignorierte Umgebungsstrategie: Entscheidungsträger bauen und veröffentlichen in derselben Umgebung ohne klare Trennung oder Schutzschienen, was das Risiko einer versehentlichen Exposition erhöht und die Änderungskontrolle schwächt.
- Behandlung aller Agents als identisch (kein stufenweiser Ansatz nach Risiko und Kritikalität): Es wird von den Organisationen ein einheitlicher Satz von Kontrollen auf jeden Agent angewendet. Dieser Ansatz schränkt entweder risikoarme Agents zur Steigerung der persönlichen Produktivität zu stark ein (was „Schatten-KI“ fördert) oder regelt abteilungsbezogene und erfolgskritische Agents zu wenig (was Sicherheits- und Compliance-Lücken verursacht). Ein gestaffelter Ansatz ist erforderlich, da die Risiko- und Governanceanforderungen steigen, während Sie von der persönlichen Produktivität zur Abteilung und Teamzusammenarbeit zu unternehmens- und unternehmenskritischen Arbeitslasten wechseln.
- Datenrichtlinien und Connectorgovernance werden nicht als "Agent-Sicherheitsgrenze" behandelt: Teams ermöglichen es Agenten, umfassend (über Connektoren, Aktionen, HTTP) ohne konsistente Richtlinieneinschränkungen zu agieren, was das Risiko von Datenexfiltration und unbeabsichtigten Aktionen erhöht.
- Prüfung und Überwachung sind nachträgliche Überlegungen: Teams zentralisieren keine Protokolle, erstellen keine Dashboards oder verbinden SOC-Workflows (Security Operations Center) mit Agentendaten. Teams erfahren nur mehr über riskantes Verhalten, nachdem Vorfälle eskaliert wurden.
- Der Sicherheitsstatus wird nicht kontinuierlich überprüft: Teams verlassen sich nicht auf laufzeitschutzstatus, automatische Sicherheitsüberprüfungen (sofern verfügbar) oder systematische gegnerische Testerwartungen vor der Veröffentlichung und wichtigen Updates.
- Kosten und Verbrauchs-Governance ist nicht verwaltet: Teams weisen keine Token, Nutzungs- oder Kapazitätskosten zu, wodurch Ausgaben ohne Transparenz zunehmen und die Governance keine Prioritäten setzen kann, um festzulegen, was skaliert oder eingestellt werden soll.
Reifespezifische Antimuster
Unterschiedliche Herausforderungen entstehen, wenn Organisationen durch Reifegrade vorankommen:
Ebene 100 – Initial: „Shadow-KI-Verbreitung“
Muster: Teams stellen Agenten ohne zentraler Aufsicht, Sicherheitskontrollen oder operativer Unterstützung bereit.
Warum dies geschieht: Fehlender klarer Governance-Rahmen. Teams bewegen sich schnell, um Wert zu erfassen, ohne auf Unternehmensstandards zu warten.
Risiko: Sicherheitsrisiken, Complianceverletzungen, nicht geregelter Datenzugriff und Betriebschaos.
So vermeiden Sie: Einrichten grundlegender Governance- und Sicherheitsstandards vor der weit verbreiteten Einführung. Stellen Sie klare Eskalationspfade bereit.
Level 200 – Wiederholbar: "Governance Theater"
Muster: Erstellen formaler Governanceprozesse, die Mehraufwand hinzufügen, ohne die Sicherheits- oder Betriebsergebnisse sinnvoll zu verbessern.
Warum es passiert: Checklisten-Mentalität. Konzentrieren Sie sich auf die Dokumentation statt auf das praktische Risikomanagement.
Risiko: Langsame Innovation ohne echte Verbesserung der Sicherheit oder Betriebssicherheit.
Wie Sie es vermeiden: Richten Sie die Governance auf die tatsächliche Risikominderung und die operative Effektivität aus. Messen sie den Governancewert.
Level 300 – Definiert: "Betriebssilos"
Muster: Gut definierte Governance und Sicherheit, aber fragmentierte Betriebspraktiken über Teams hinweg.
Warum dies der Fall ist: Verschiedene Teams entwickeln unterschiedliche betriebliche Ansätze. Fehlende gemeinsame betriebliche Standards.
Risiko: Inkonsistente Agentleistung, duplizierter Aufwand, reduzierte Betriebseffizienz, geschwächte Änderungskontrolle.
Wie man vermeidet: Implementieren Sie gemeinsam genutzte betriebliche Frameworks und Werkzeuge. Einrichten teamübergreifender operativer Praxisgemeinschaften.
Stufe 400 – Leistungsstark: "Automatisierungskomplexität"
Muster: Die Automatisierung von Governance, Sicherheit und Vorgängen zu dem Punkt, an dem die Systeme schwer zu verstehen oder zu ändern sind.
Warum dies geschieht: Erfolg mit Automatisierung schafft Druck, alles zu automatisieren. Verlust der betrieblichen Intuition.
Risiko: Anfällige Systeme, die schwer zu beheben oder anzupassen sind. Eingeschränkte Möglichkeit für die Behandlung von Randfällen.
Vermeiden: Ausgleichen der Automatisierung mit menschlicher Aufsicht und Verständnis. Bewahren Sie die betriebliche Expertise neben automatisierten Funktionen.
Stufe 500 – Effizient: "Innovationsstagnation"
Muster: Hervorragende aktuelle Funktionen, aber reduzierte Investitionen in Governance, Sicherheit oder operative Ansätze der nächsten Generation.
Warum es passiert: Erfolg schafft Komfort mit aktuellen Ansätzen. Die Ressourcenzuordnung konzentriert sich auf die Aufrechterhaltung und nicht auf die Weiterentwicklung.
Risiko: Wettbewerber können überlegene Ansätze entwickeln. Möglicherweise verpassen Sie aufkommende Bedrohungen oder operative Möglichkeiten.
So vermeiden Sie: Investieren Sie kontinuierlich in Funktionen der nächsten Generation. Überwachen Sie neue Trends und Technologien.
Operationalisieren verantwortungsvoller KI
Setzen Sie verantwortungsvolle KI in die Praxis mit vier wichtigen Aktionen: Festlegen von Standards, Einrichten von Governance, Einbetten von Sicherheitsvorkehrungen in Bereitstellung und Betrieb sowie Aufbau von Teamgewohnheiten und -kultur.
Definieren eines verantwortungsvollen KI-Standards
Verwenden Sie etablierte Frameworks, z. B. Microsoft Responsible AI Principles oder NIST AI Risk Management Framework, als Basisplan, und passen Sie sie dann an Ihren Organisationskontext an. Übersetzen Sie Die Prinzipien in:
- Klare Ziele, z. B. Die Verringerung von Verzerrungen und die Sicherstellung der Erklärungsfähigkeit.
- Konkrete Anforderungen wie Überprüfungsgates, Eskalationsregeln und Datengrenzen.
- Praktische Tools und Praktiken, einschließlich Folgenabschätzungen, Bias-Tests und Überwachung.
Einrichten eines KI-Rates
Erstellen Sie einen funktionsübergreifenden, multidisziplinären KI-Rat, um die KI-Einführung zu überwachen und zu leiten. Typische Rollen sind:
- Leitender Sponsor (strategische Ausrichtung und Priorisierung)
- IT- und Plattformaktivierung (technische Bereitschaft und Governance)
- Änderungsmanagement (Einführung, Kommunikation, Feedback)
- Risiko, Legal und Compliance (Verantwortungsvolle KI, Datenschutz, Regulierung)
Der Rat richtet die KI-Verwendung mit organisationsweiten Werten aus, überprüft Anwendungsfälle mit hoher Wirkung, verringert Risiken und schafft Vertrauen in alle Beteiligten.
Verantwortungsvolle KI in Lieferung und Betrieb einbetten
- Starten Sie jedes KI-Projekt mit einem Verantwortlichen KI-Kickoff: Fragen Sie, wie das System Schaden oder Unfairität verursachen könnte, und planen Sie Maßnahmen frühzeitig.
- Stellen Sie sicher, dass Benutzer wissen, wann sie mit KI interagieren und wie Entscheidungen getroffen werden.
- Überwachen Sie Agenten kontinuierlich auf Fairness, Sicherheit, Missbrauch und Vertrauenssignale.
- Behandeln Sie verantwortungsvolle KI als fortlaufende operative Verantwortung, nicht als Bereitstellungskontrollkästchen.
Verantwortungsvolle KI-Gewohnheiten und Kultur aufbauen
Verantwortungsvolle KI ist erfolgreich, wenn sie Teil der Funktionsweise von Teams wird:
- Ermutigen Sie Teams, Entscheidungen und Annahmen zu dokumentieren.
- Stellen Sie sicher, dass es erwartet und sicher ist, ethische Bedenken zu äußern.
- Verwenden Sie Szenarien, Risikoradarübungen und Retrospektiven, um reaktionen zu üben.
- Stärken Sie, dass verantwortungsvolle KI die Aufgabe aller ist, nicht nur die Governance.
Wie man Fallstricke bei verantwortungsvoller KI vermeidet
Organisationen, die kämpfen, KI-Agents sicher zu skalieren, begegnen häufig den folgenden Herausforderungen bei der Operationalisierung von verantwortungsvoller KI. Diese Ansätze schaffen versteckte Risiken, die erst sichtbar werden, wenn Einführungsverzögerungen oder Vorfälle auftreten.
Verantwortungsvolle KI nur mit Sicherheit oder Compliance verwechseln
Muster: Verantwortungsvolle KI als Synonym für Datensicherheit oder einhaltung gesetzlicher Vorschriften zu behandeln.
Warum dieser Ansatz Risiken schafft:
- Sie verpassen Vertrauensrisiken wie Fairness, Erklärungsfähigkeit und Mitarbeitervertrauen.
- Systeme sind möglicherweise konform, werden aber weiterhin von Benutzern abgelehnt.
- Die Einführung verlangsamt sich auch dann, wenn Technologie funktioniert.
Verantwortungsvolle KI als einmalige Überprüfung betrachten
Muster: Behandeln verantwortlicher KI als Prüfliste vor der Bereitstellung oder Abmeldeschritt. Sobald ein Agent live ist, gehen Teams davon aus, dass der Auftrag abgeschlossen ist.
Warum dieser Ansatz Risiken schafft:
- KI-Systeme ändern sich im Laufe der Zeit, wenn Sich Eingabeaufforderungen, Daten und Nutzungsmuster entwickeln.
- Bias, Missbrauch und Vertrauensdrift erscheinen in der Regel nach go-live, nicht vorher.
- Teams sind unvorbereitet, wenn Probleme auftreten, und kehren dann zu reaktiven Abschaltungen zurück.
Dieser Ansatz führt direkt zu dem in den Reifeszenarien hervorgehobenen Antwortmuster „Panik und Abschaltung“.
Auf informelle Ethikgespräche angewiesen sein
Muster: Ethische Bedenken hängen davon ab, ob jemand im Raum sie auslöst. Das Team hat keine definierten Standards, Rollen oder Eskalationspfade.
Warum dieser Ansatz Risiken schafft:
- Die Risikoabdeckung wird in Teams und Domains uneinheitlich.
- Das Team verpasst Anwendungsfälle mit hoher Wirkung, die eine angemessene Prüfung erfordern.
- Verantwortlichkeit ist unklar, wenn etwas schief geht.
Dieser Ansatz spiegelt die Reife der Ebene 100–200 wider, wo das Bewusstsein existiert, aber die Aktion ungleich ist.
Kein KI-Rat oder ein Rat ohne Autorität
Muster: Ein KI-Rat existiert "auf Papier" oder in Form eines Diskussionsforums, aber es fehlt an einem klaren Mandat, Entscheidungsrechten oder Unterstützung durch Führungskräfte.
Warum dieser Ansatz Risiken schafft:
- Teams ignorieren Richtlinien oder wenden sie selektiv an.
- Teams umgehen Governance, um schneller voranzukommen.
- Risiko-, Rechts-, IT- und Änderungsteams bleiben falsch ausgerichtet.
Ohne Autorität kann das Gremium spätere Hindernisse in der Lieferung nicht verhindern, was die Einführung verlangsamt, anstatt sie zu erleichtern.
Warten auf Vorfälle, um zu lernen
Muster: Teams gehen davon aus, dass sie Probleme angehen, wenn sie auftreten, anstatt im Voraus Reaktionspläne vorzubereiten.
Warum dieser Ansatz Risiken schafft:
- Antworten sind reaktiv und inkonsistent.
- Das Lernen ist schmerzhaft, öffentlich und teuer.
- Das Vertrauen in KI fällt schnell nach dem ersten Vorfall.
Organisationen mit hoher Reife entwerfen Reaktionsstrategien, bevor etwas schief geht.
Häufige Risiken, wenn Sie verantwortungsvolle KI nicht operationalisieren
Wenn Sie verantwortungsvolle KI nicht in Liefer- und Betriebsvorgänge einbetten oder wenn kein effektiver KI-Rat vorhanden ist, werden Risiken während der Lieferung, im Betrieb und auf Organisationsebene angezeigt.
-
Während der Lieferung:
- Teams stellen Agenten bereit, die ihre Entscheidungen den Benutzern nicht erklären können.
- In hochwirksamen Arbeitsabläufen wie im Personalwesen, in der Finanzabteilung und im Kundendienst treten voreingenommene oder unfaire Ergebnisse auf.
- Niemand weiß, wer Änderungen genehmigen oder die Bereitstellung anhalten muss.
-
In Operationen:
- Vorfälle lösen Notfallreaktionen anstelle einer strukturierten Untersuchung aus.
- Teams fahren die Agents vollständig herunter, wodurch die Arbeit auf manuelle Prozesse umgestellt wird.
- Vertrauen in KI fällt in der gesamten Organisation, nicht nur für einen Anwendungsfall.
-
Auf Organisationsebene:
- Führungskräfte verlieren Vertrauen in die Agentenautonomie.
- Die Einführung stagniert trotz starker technischer Fähigkeit.
- Teams sehen Agenten eher als Risiko denn als strategische Ressource.
Verwenden des Radars "Verantwortungsvolle KI-Risiken" zum Identifizieren und Verringern von Agentrisiken
Das Radar "Verantwortungsvolle KI-Risiken" ist eine einfache, wiederholbare Aktivität, die Ihnen hilft, verantwortungsvolle KI-Risiken zu identifizieren, zu priorisieren und zu beheben, bevor Sie Agents in der Produktion bereitstellen.
Anstatt verantwortungsvolle KI als endgültige Compliance-Prüfung zu behandeln, integriert das Risikoradar das Risikobewusstsein direkt in die Abläufe und den Betrieb. Es unterstützt proaktive Governance und vertrauenswürdige Skalierung. Diese Aktivität kann von Lieferteams, Exzellenzzentren und KI-Räten ausgeführt werden. Sie können sie an wichtigen Punkten im Agentenlebenszyklus wiederverwenden (Entwurf, Vorabfreigabe, Überprüfung nach dem Vorfall).
Das Risikoradar hilft Teams:
- Machen Sie verantwortungsvolle KI-Risiken sichtbar und einfach zu diskutieren.
- Verankern Sie Risiken an den sechs Grundsätzen verantwortlicher KI: Fairness, Transparenz, Rechenschaftspflicht, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit sowie Inklusive.
- Priorisieren Sie Risiken basierend auf Auswirkungen und Wahrscheinlichkeit.
- Übersetzen Sie Risiken in konkrete Aktionen und Teamgewohnheiten.
- Bereitstellung strukturierter Eingaben für ein KI-Rats- oder Governance-Forum.
Verwenden Sie das Risikoradar, wenn:
- Entwerfen eines neuen KI-Agents oder eines Features mit hohem Einfluss.
- Vorbereitung eines Agents für den Einsatz in der Produktionsumgebung.
- Untersuchen eines Vorfalls oder Vertrauensproblems.
- Überprüfung des Verhaltens des Agents als Teil laufender Vorgänge.
- Unterstützung bei den Überprüfungen des KI-Rats für sensible oder bereichsübergreifende Anwendungsfälle.
So verwenden Sie das Risikoradar
Führen Sie mit den folgenden Schritten eine Risiko-Radarsitzung für verantwortungsvolle KI durch:
Wählen Sie einen konkreten Anwendungsfall aus: Beginnen Sie mit einem bestimmten Szenario, z. B. einem Kundendienstmitarbeiter mit CRM-Zugriff oder einem Hr Decision-Support-Agent. Vermeiden Sie abstrakte Diskussionen. Reale Anwendungsfälle haben echte Risiken.
Identifizieren Sie Risiken über verantwortungsvolle KI-Prinzipien hinweg: Als Gruppe brainstormen Sie potenzielle Risiken in den folgenden Kategorien:
- Fairness
- Transparenz
- Verantwortlichkeit
- Zuverlässigkeit und Sicherheit
- Datenschutz und Sicherheit
- Inklusivität
Erfassen Sie Risiken ohne Filterung. Zielen Sie in dieser Phase auf die Abdeckung, nicht auf Perfektion.
Karten von Risiken auf dem Risikoradar: Platzieren Sie jedes identifizierte Risiko auf einem Risikoradar mit zwei Dimensionen:
- Auswirkung (niedrig → Hoch): Wie schwerwiegend wäre die Auswirkung, wenn dieses Risiko aufgetreten ist?
- Wahrscheinlichkeit (unwahrscheinlich → Wahrscheinlichkeit): Wie wahrscheinlich ist dieses Risiko aufgrund des aktuellen Designs?
Diese visuelle Zuordnung hilft Ihnen, schnell zwischen Randfällen mit niedriger Priorität und hochwirksamen, hochwahrscheinlichen Risiken zu unterscheiden, die sofortige Aufmerksamkeit erfordern.
Beispielszenario: Ihre Organisation hat einen Agent bereitgestellt, um Kundenanfragen und Beschwerden über mehrere Kanäle hinweg zu verarbeiten – E-Mail, Chat und Sprache. Der Agent integriert sich in CRM-Systeme (Customer Relationship Management) und hat Zugriff auf Kundenhistorie, Einstellungen und Transaktionsdaten. Der Agent kann komplexe Fälle an menschliche Agenten eskalieren.
Definieren Sie Aktionen und Gewohnheiten für die wichtigsten Risiken: Definieren Sie für die zwei bis drei Risiken mit der höchsten Priorität:
- Eine Maßnahme, z. B. die Einführung eines menschlichen Genehmigungsschritts, die den KI-Rat miteinführt oder die Überwachung hinzufügt.
- Eine Gewohnheit oder ein Verhalten zum Einbetten in die Teampraxis, z. B. eine obligatorische Erläuterungsüberprüfung vor der Veröffentlichung.
Beispiel:
Risiko Prinzip der verantwortungsvollen KI Auswirkungen Wahrscheinlichkeit Action Gewohnheit Kunden wissen nicht, dass sie mit KI interagieren Transparenz Hoch Unwahrscheinlich Mandatserklärbarkeit, Offenlegung und Zitate, damit Benutzer eindeutig informiert werden, wenn ein KI-Agent beteiligt ist. Überprüfen Sie regelmäßig Fälle, in denen Transparenz klarer sein könnte. Kein klarer Eskalationspfad, wenn der Agent schädliche Reaktionen gibt Verantwortlichkeit Hoch Unwahrscheinlich Erstellen Sie ein KI-Eskalationsprotokoll, das definiert, wann und wie der Agent an einen Menschen übergeben muss. RAI-Experten in Support-Teams. Benennen Sie Verantwortliche, um Eskalationslücken frühzeitig offenzulegen. Eskalationsentscheidungen werden durch historische Daten verzerrt Fairness Hoch Wahrscheinlich Führen Sie regelmäßige Voreingenommenheitsprüfungen mithilfe verschiedener Testfälle durch und dokumentieren Sie Korrekturmaßnahmen. Herausforderungen bei der Erkennung von Voreingenommenheit. Führen Sie regelmäßige Übungen aus, um voreingenommene Verhaltensweisen zu identifizieren und zu beheben. Der Agent erfindet Antworten, wenn er unsicher ist, anstatt die Angelegenheit weiterzuleiten Transparenz Hoch Wahrscheinlich Erstellen Sie ein KI-Eskalationsprotokoll mit klaren Schwellenwerten für Unsicherheiten und sensible Themen. RAI-Retros bei Supportbewertungen. Fügen Sie einen "RAI-Moment" in wöchentliche Retros ein. Temporäre Mehrdeutigkeit darüber, wer eine nicht kritische Konfigurationsänderung genehmigen soll Verantwortlichkeit Niedrig Unwahrscheinlich Einen KI-Rat zur Klärung der Entscheidungsrechte und des Eigentums einrichten. RAI-Experten in Support-Teams. Stärken Sie die Verantwortung für Änderungen mit geringem Risiko. Kleinere Variationen bei Ausdrücken oder Tonarten werden in Agentantworten für unterschiedliche Benutzer angezeigt Fairness Niedrig Unwahrscheinlich Führen Sie regelmäßige Verzerrungsprüfungen durch, um die Konsistenz von Ton und Sprache zu überprüfen. Herausforderungen bei der Erkennung von Voreingenommenheit. Ermutigen Sie Teams, subtile Verzerrungen frühzeitig zu kennzeichnen. Schulungsdaten neigen leicht zu gängigen Szenarien, was eine regelmäßige Überprüfung erfordert Fairness Niedrig Wahrscheinlich Implementieren Sie eine Prüfliste für verantwortungsvolle KI-Überprüfungen, die Datenbilanzprüfungen enthält. Kundenfeedbackschleife. Überprüfen Sie die gekennzeichneten Antworten wöchentlich, um Abweichung zu erkennen. Agent versucht, außerhalb des vorgesehenen Bereichs auf Daten zuzugreifen, die Anforderung wird jedoch durch Steuerelemente blockiert. Datenschutz und Sicherheit Niedrig Wahrscheinlich Implementieren Sie eine Prüfliste für verantwortungsvolle KI-Überprüfungen, um Datenzugriffsgrenzen zu überprüfen. Kundenfeedbackschleife. Überwachen Sie blockierte Zugriffsversuche und Muster.
Mit diesem Ansatz wird sichergestellt, dass verantwortungsvolle KI von Bewusstsein zu Ausführung und Kultur wechselt.
Verwenden dieser Säule in der Praxis
Für das Governancedesign: Verwenden Sie diese Säule, um Governanceframeworks zu erstellen, die Innovation ermöglichen, während Sie Risiken verwalten und die Compliance sicherstellen.
Für die Sicherheitsimplementierung: Wenden Sie diese Säule an, um Sicherheitskontrollen einzurichten, die Agents und Daten schützen, ohne die Benutzerfreundlichkeit oder betriebliche Effizienz zu beeinträchtigen.
Für operative Exzellenz: Verwenden Sie diese Säule, um operative Praktiken zu erstellen, die sicherstellen, dass Agenten während ihres gesamten Lebenszyklus zuverlässig, leistungsfähig und wertvoll bleiben.
Nächster Schritt
Im nächsten Artikel erfahren Sie, wie Sie skalierbare, sichere technische Grundlagen und Datenstrategien für die Einführung von KI-Agenten erstellen.
Verwandte Informationen
- Verwalten und Verwalten von Agenten
- Copilot Control System- Sicherheit und -Governance
- Microsoft Agent 365 Dokumentation
- Website zur Einführung von Microsoft 365 Copilot
- KI-Agents– Einführungswebsite
- Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot
- Copilot Studio-Sicherheit und -Governance
- Verwalten Ihrer Copilot Studio-Projekte
- Governance und Sicherheit für KI-Agents in der gesamten Organisation