Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Um die Sicherheit und Kontrolle bei der Bereitstellung von Agents in Microsoft 365 aufrechtzuerhalten, müssen Sie die zugrunde liegenden Governance- und Verwaltungsmodelle verstehen. Microsoft 365 bietet zwei unterschiedliche Architekturansätze, jeweils mit unterschiedlichen Sicherheitskontrollen, Zustimmungsmechanismen und administrativen Funktionen.
Sie können Agents als Teams-Bots in Microsoft 365 Copilot und Copilot Chat bereitstellen. Außerdem können Sie Agenten auf Plattformen selbst hosten, die Sie besitzen, wie etwa ein Webportal oder eine mobile App.
Die Wahl zwischen diesen Modellen beeinflusst, wie Ihre Organisation den Datenzugriff, Benutzerberechtigungen und externe Serviceintegrationen verwaltet. In diesem Artikel werden das Teams-App-Modell und Copilot Agentmodell verglichen, um ihre Sicherheitsauswirkungen zu verstehen und zu bestimmen, welcher Ansatz ihren Organisationsanforderungen am besten entspricht.
Teams-App-Modell
Bestehende Teams- und Power Platform-Apps bieten die Kontrolle auf der Ebene pro App und pro Connector, was bedeutet, dass die Zustimmung des Administrators bereits zum Zeitpunkt der Übernahme erfolgt. Zum Beispiel fordern Teams-Apps bei der Installation die Zustimmung an, und du kannst Power Platform-Connectors nicht erhalten, wenn sie durch Datenrichtlinien blockiert werden.
Das Teams-App-Modell implementiert externe Sicherheitskontrollen, bei denen die administrative Zustimmung bereits zum Zeitpunkt der Anwendungserwerbung erfolgt. Dieses Modell bietet eine granulare Kontrolle über den Zugriff von externen Diensten auf die Mandantengrenzen von Microsoft 365.
Dieses Modell ermöglicht das Definieren von Inhalten und Arbeitsauslastungen als präzise Objekte wie Teams-Nachrichten, E-Mails und durch Microsoft Entra geschützte externe Daten wie ServiceNow.
In diesem Modell benötigen externe Dienste eine explizite Erlaubnis, um auf Mieterdaten zuzugreifen, selbst wenn sie die gewährten Berechtigungen nicht aktiv nutzen. Dieser Ansatz ermöglicht granulare Definitionen von Inhalten und Arbeitslasten, einschließlich Teams-Nachrichten, E-Mails und entra-gelenkten externen Datenquellen.
Der Service-to-Service-Authentifizierungsmechanismus reduziert das Risiko von DNS- (Domain Name System)-Vergiftungen oder Domain-Hijacking-Angriffen, da das Kompromittieren des Anwendungsdienstes selbst erforderlich ist, um Anwendungszugangsdaten zu erhalten. Es kann jedoch eine Herausforderung sein, eine angemessene Inhaltsgranularität für unterschiedliche Kundenanforderungen (pro Postfach, pro Website usw.) zu erreichen.
Copilot Agentmodell
In diesem Modell geben Nutzer die Zustimmung zum Zeitpunkt der Anrufung. Jedes Mal, wenn die App Daten sendet, wird der Benutzer aufgefordert, Zugriff auf den angegebenen Endpunkt zu gewähren. Sie können Inhalte oder Workloads in diesem Modell nicht isolieren, da alle Inhalte nach der Synthetisierung den Typ „Copilot Chat“ haben. Die externe URL wird zu einem granularen Objekt oder Kontrollbereich mit Link-Freigabeliste und App-Paket-Prüfung.
Das Copilot-Agentmodell verwendet interne Sicherheitskontrollen, bei denen Benutzer zum Zeitpunkt des Aufrufs die Zustimmung erteilen. Benutzer erhalten jedes Mal eine Aufforderung zur Datenteilung, wenn Informationen die Mandantengrenze zu externen Diensten überschreiten.
Dieses Modell beinhaltet keine Service-Level-Authentifizierungsdaten, daher sollten Sie entsprechende API-Härtung anwenden. Administratoren können nur verhindern, dass Inhaltstypen den Mandanten verlassen, indem sie deren Nutzung in Copilot vollständig durch die Anwendung von Labels zur Verhinderung von Datenverlust blockieren.
Das Modell ermöglicht granulare Zustimmung auf Ebene pro Nachricht oder pro Aufruf, verlässt sich jedoch vollständig auf Nutzerentscheidungen ohne administrative Eingriffsmöglichkeiten.
Nächster Schritt
Verstehen Sie die Datenströme von Agenten, um Sicherheitsgrenzen, Vertrauensanforderungen und potenzielle Schwachstellen in Agentensystemen zu identifizieren.