Transparenzhinweis für Azure Agent-Dienst (klassisch)

Zurzeit wird folgendes angezeigt:Foundry (klassische) Portalversion - Wechseln zur Version für das neue Foundry-Portal

Hinweis

Links in diesem Artikel können Inhalte in der neuen Microsoft Foundry-Dokumentation anstelle der jetzt angezeigten Foundry-Dokumentation (klassisch) öffnen.

Wichtig

Nicht englische Übersetzungen werden nur zur Bequemlichkeit bereitgestellt. Bitte konsultieren Sie die EN-US Version dieses Dokuments für die endgültige Version.

Was ist eine Transparenznotiz?

Ein KI-System umfasst nicht nur die Technologie, sondern auch die Personen, die es nutzen werden, die Menschen, die davon betroffen sind, und die Umgebung, in der sie bereitgestellt wird. Die Erstellung eines Systems, das für den vorgesehenen Zweck geeignet ist, erfordert ein Verständnis dafür, wie die Technologie funktioniert, was ihre Funktionen und Einschränkungen sind und wie Sie die beste Leistung erzielen können. Microsofts Transparenzhinweise sollen Ihnen helfen, zu verstehen, wie unsere KI-Technologie funktioniert, welche Entscheidungen Systembesitzer treffen können, die die Systemleistung und das Verhalten beeinflussen, und wie wichtig es ist, über das gesamte System nachzudenken, einschließlich der Technologie, der Menschen und der Umgebung. Sie können Transparenzhinweise verwenden, wenn Sie Ihr eigenes System entwickeln oder bereitstellen oder mit den Personen teilen, die ihr System verwenden oder davon betroffen sind.

Microsoft Transparenzhinweise sind Teil eines umfassenderen Aufwands für Microsoft, unsere KI-Prinzipien in die Praxis umzusetzen. Weitere Informationen finden Sie in den Microsoft KI-Prinzipien.

Die Grundlagen des Foundry Agent-Dienstes

Einführung

Der Foundry Agent Service ist ein vollständig verwalteter Dienst, der Entwicklern die Möglichkeit gibt, hochwertige und erweiterbare KI-Agents sicher zu erstellen, bereitzustellen und zu skalieren, ohne die zugrunde liegenden Compute- und Speicherressourcen verwalten zu müssen. Agent-Dienst bietet integrierten Zugriff auf Models, Tools und Technologie und ermöglicht Es Ihnen, die Funktionalität von Agents mit Wissen aus verbundenen Quellen (z. B. Bing Search, SharePoint, Fabric, Azure Blob-Speicher und lizenzierten Daten) und Aktionen mit Tools wie Azure Logic Apps zu erweitern, Azure Functions, OpenAPI 3.0 angegebene Tools und Codedolmetscher. Weitere Informationen.

Allgemeiner Haftungsausschluss zu Agenten

Agentische KI-Systeme sind so konzipiert, dass agentische Funktionen verwendet werden, um ein von einem Benutzer angegebenes übergeordnetes Ziel zu erreichen. Systeme sollten so konzipiert sein, dass Benutzer die menschliche Aufsicht entsprechend einbeziehen können, um sicherzustellen, dass das System die Aktionen und Aufgaben wie beabsichtigt ausführt. Sollte ein Agent unbeabsichtigtes oder unerwünschtes Verhalten aufweisen, sollten Die Benutzer in der Lage sein, einzugreifen und geeignete Maßnahmen zu ergreifen, um potenzielle Risiken zu mindern.

Haftungsausschluss für Agents in vertraulichen Domänen

Benutzer sollten beim Entwerfen und Bereitstellen agentischer KI-Systeme in sensiblen Domänen Vorsicht walten lassen, bei denen Agent-Aktionen unumkehrbar oder stark folgefähig sind. Zu diesen Domänen gehören, aber nicht beschränkt auf Finanz- und Versicherungen, Gesundheitswesen, Rechts- und Wohnungswesen. Zusätzliche Vorsichtsmaßnahmen sollten auch bei der Erstellung autonomer agentischer KI getroffen werden, wie weiter in unserem Verhaltenskodex beschrieben. Sie sind dafür verantwortlich, alle anwendbaren Gesetze und Sicherheitsstandards einzuhalten, die für die Agents relevant sind, die Sie mit allen Foundry Tools und Lösungen erstellen, einschließlich Agentenkatalog, zugrunde liegenden Codebeispielen und ähnlichen Ressourcen und Informationen (siehe unten Überlegungen bei der Auswahl eines Anwendungsfalles).

Schlüsselbegriffe

Im Folgenden finden Sie wichtige Komponenten des Agent Service SDK (und des Microsoft Foundry-Portals, das von ihr unterstützt wird):

Begriff Definition
Entwickler Ein Kunde des Agent-Diensts, der einen Agent erstellt.
Benutzer Eine Person, die einen Agent verwendet und/oder betreibt, der von einem Entwickler erstellt wird.
Agent Eine Anwendung oder ein System, das generative KI-Modelle mit Tools für den Zugriff auf und die Interaktion mit realen Datenquellen, APIs und Systemen verwendet, um benutzerdefinierte Ziele wie Antworten auf Fragen, Ausführen von Aktionen oder vollständig automatisieren Workflows mit oder ohne menschliche Aufsicht zu erreichen.
Werkzeug Eine integrierte oder benutzerdefinierte Funktionalität, die es einem Agent ermöglicht, einfache oder komplexe Aufgaben auszuführen oder mit Informationsquellen, Anwendungen und/oder Diensten über das Agent Service SDK oder Foundry-Portal zu interagieren.
Wissenstool Ein Tool, mit dem ein Agent auf Daten aus internen und externen Quellen zugreifen und verarbeiten kann, einschließlich Informationen über das Datum der Modellschulung hinaus, um die Genauigkeit und Relevanz von Antworten auf Benutzerabfragen zu verbessern.
Aktionstool Ein Tool, mit dem ein Agent Aufgaben ausführen und Aktionen im Namen der Benutzer ausführen kann, indem er in externe Systeme, APIs und Dienste integriert wird.
Thread Eine Unterhaltungssitzung zwischen einem Agent und einem Benutzer. Threads speichern Nachrichten und behandeln automatisch das Abschneiden, um Inhalte in den Kontext eines Modells einzupassen.
Nachricht Eine Nachricht, die von einem Agent oder einem Benutzer erstellt wurde. Nachrichten können Text, Bilder und andere Dateien enthalten. Nachrichten werden als Liste im Thread gespeichert.
Ausführen Die Aktivierung eines Agents, der auf der Grundlage des Inhalts des Threads ausgeführt wird. Der Agent verwendet seine Konfiguration und die Nachrichten des Threads, um Aufgaben durch Aufrufen von Modellen und Tools auszuführen. Als Teil einer Ausführung fügt der Agent Nachrichten an den Thread an.
Schritte ausführen Eine detaillierte Liste der Schritte, die der Agent als Element einer Ausführung durchgeführt hat. Ein Agent kann Tools aufrufen oder während der Ausführung Nachrichten erstellen. Wenn Sie die Ausführungsschritte untersuchen, können Sie verstehen, wie der Agent zu seinen endgültigen Ergebnissen gelangt.
Workflow Eine deklarative Abfolge von Aktionen, die Agents zur Automatisierung komplexer Prozesse koordinieren. Workflows in Foundry können mithilfe einer grafischen Benutzeroberfläche entworfen, ausgeführt und veröffentlicht werden.
Beispiel Eine Vorlage, ein Manifest, ein Codebeispiel, ein Workflowbeispiel oder ein anderes Beispiel, das veranschaulicht, wie Sie Agents, Anwendungen oder Lösungen erstellen und die Vorteile Microsoft Foundry Agent Service nutzen können.

Relevante Funktionskonzepte

Begriff Definition
Agentisches KI-System Ein Dachbegriff, der die folgenden allgemeinen Funktionen enthält, die Entwickler in ihren Agents aktivieren können, wenn sie den Agentdienst verwenden.
Autonomie Die Fähigkeit, Aktionen unabhängig auszuführen und die Kontrolle über das Systemverhalten mit unterschiedlichem Grad der menschlichen Überwachung auszuüben.
Argumentation Die Möglichkeit, Informationen zu verarbeiten und dabei Kontext und Ergebnisse verschiedener potenzieller Aktionen, Aufgaben oder Einsätze mit Benutzern von Drittanbietern zu verstehen.
Planung Die Möglichkeit, komplexe, vom Benutzer angegebene Ziele und Aktionen in Aufgaben und Teilvorgänge für die Ausführung aufzuteilen. Geplante Aufgaben werden von einem oder mehreren Agents erstellt.
Speicher Die Möglichkeit, Informationen oder Kontext aus früheren Beobachtungen, Interaktionen oder Systemverhalten zu speichern oder aufzubewahren.
Anpassungsfähigkeit Die Möglichkeit, das Verhalten zu ändern oder anzupassen und die Leistung basierend auf Informationen zu verbessern, die aus der Umgebung oder früheren Erfahrungen gesammelt wurden.
Erweiterbarkeit Die Möglichkeit, Ressourcen (z. B. externe Wissensquellen) aufzurufen und Funktionen (z. B. das Senden einer E-Mail) von verbundenen Systemen, Software oder Plattformen auszuführen, einschließlich der Verwendung von Tools.

Funktionen

Systemverhalten

Agent Service bietet eine Integration mit sicher verwalteten Daten, sofort einsatzbereiten Tools und automatischen Toolaufrufen, mit denen Entwickler Agents erstellen können, die die Möglichkeit haben können, Aufgaben anhand eines von einem Benutzer festgelegten übergeordneten Ziels zu erstellen, zu planen und auszuführen. Agent Service ermöglicht eine schnelle Agent-Entwicklung mit integrierter Speicherverwaltung und einer ausgefeilten Schnittstelle, die nahtlos in beliebte Computeplattformen integriert, um LLM-Funktionen mit allgemeinen, programmgesteuerten Aktionen zu überbrücken.

Diagramm der Komponenten und Features des Agentdiensts.

Zu den wichtigsten Features des Agentdiensts gehören:

  1. Schnelles Entwickeln und Automatisieren von Prozessen: Agents müssen nahtlos in die richtigen Tools, Systeme und APIs integriert werden, um deterministische oder nicht deterministische Aktionen auszuführen.
  2. Integration mit umfangreichen Speicher- und Wissensschnittstellen: Agents müssen den Konversationsstatus verwalten und sich mit internen und externen Wissensquellen verbinden, um den passenden Kontext für den Abschluss eines Prozesses bereitzustellen.
  3. Flexible Modellauswahl: Agents, die mit dem geeigneten Modell für ihre Aufgaben erstellt wurden, können eine bessere Integration von Informationen aus mehreren Datentypen ermöglichen, bessere Ergebnisse für aufgabenspezifische Szenarien erzielen und die Kosteneffizienz in skalierten Bereitstellungen verbessern.
  4. Integrierte Unternehmensbereitschaft: Agents müssen in der Lage sein, die einzigartigen Datenschutz- und Complianceanforderungen einer Organisation zu unterstützen, die Anforderungen einer Organisation zu skalieren und Aufgaben zuverlässig und mit hoher Qualität zu erledigen.

Erweiterbarkeitsfunktionen

Die Erweiterungsfunktionalitäten des Agent-Dienstes ermöglichen es Agents, mit Wissensquellen, Systemen und Plattformen zu interagieren, um die Funktionalität des Agents zu erden und zu erweitern. Speziell:

Sichere Verankerung von Agenten-Outputs mithilfe eines umfangreichen Ökosystems von Wissensquellen

Entwickler können ein umfangreiches Ökosystem von Wissensquellen konfigurieren, damit ein Agent auf Daten aus mehreren Quellen zugreifen und diese verarbeiten kann, um die Genauigkeit von Antworten und Ausgaben zu verbessern. Konnektoren zu diesen Datenquellen arbeiten innerhalb der von Ihnen festgelegten Netzwerkparameter. Die in den Agentdienst integrierten Wissenstools umfassen:

  • File Search (ein integriertes RAG-Tool (Retrieval Augmented Generation) zum Verarbeiten und Durchsuchen privater Daten in Azure KI-Suche, Azure Blob Storage und lokalen Dateien)
  • Grounding with Bing Search (ein Web-Such-Tool, das Bing Search nutzt, um Informationen aus dem Web zu extrahieren)
  • SharePoint (integrierte Tools, die die internen Dokumente einer Organisation in SharePoint für geerdete Antworten verbinden)
  • Fabric Data Agent (ein integriertes Tool zum Chatten mit strukturierten Daten auf Microsoft Fabric mithilfe von generativen KI)
  • Bring your licensed data (ein Tool, das Grounding mit proprietären Daten ermöglicht, auf die über einen lizenzierten API-Schlüssel zugegriffen wird, den der Entwickler vom Anbieter der Daten abruft, z. B. TripAdvisor)

Agents vereinfachen den sicheren Datenzugriff auf SharePoint- und Fabric-KI-Fähigkeiten durch On-Behalf-of (OBO)-Authentifizierung, die dem Agent die Möglichkeit bietet, nur auf die SharePoint- oder Fabric-Dateien zuzugreifen, für die der Benutzende Berechtigungen hat.

Aktivieren autonomer Aktionen mit oder ohne menschliche Eingabe über Aktionstools

Entwickler können einen Agent über Aktionstools mit externen Systemen, APIs und Diensten verbinden, sodass der Agent Aufgaben ausführen und Aktionen im Auftrag von Benutzern ausführen kann. Die in den Agentdienst integrierten Aktionstools umfassen:

  • Code-Interpreter (ein Tool, das Python Code in einer sicheren Umgebung schreiben und ausführen kann, verschiedene Datenformate verarbeitet und Dateien mit Daten und visuellen Elementen generiert)
  • Azure Logic Apps (ein cloudbasiertes PaaS-Tool, das automatisierte Workflows mit 1.400 integrierten Connectors ermöglicht)
  • Azure Functions (ein Tool, mit dem ein Agent serverlosen Code für synchrone, asynchrone, lange ausgeführte und ereignisgesteuerte Aktionen ausführen kann)
  • OpenAPI 3.0 angegebene Tools (eine benutzerdefinierte Funktion, die mit der OpenAPI 3.0-Spezifikation definiert ist, um einen Agent sicher mit externen OpenAPI-basierten APIs zu verbinden)
  • Modellkontextprotokolltools (ein benutzerdefinierter Dienst, der über das Modellkontextprotokoll über einen vorhandenen MCP-Remoteserver mit einem Agent verbunden ist).
  • Deep Research-Tool: (ein Tool, das mehrstufige webbasierte Forschung mit dem o3-Deep-Research-Modell und der Verankerung mit der Bing-Suche ermöglicht).
  • Computerverwendung: (ein Tool zum Ausführen von Aufgaben durch Interaktion mit Computersystemen und Anwendungen über ihre UIs)
  • Browserautomatisierungstool (ein Tool, das reale Browseraufgaben durch Aufforderungen in natürlicher Sprache ausführen kann, um automatisierte Browseraktivitäten ohne menschliche Eingriffe in der Mitte zu ermöglichen)
  • Bildgenerierung (ein Tool zum Generieren und Bearbeiten von Bildern)
  • Agent2Agent (ein benutzerdefinierter Dienst, der über das Agent-zu-Agent-Protokoll über einen vorhandenen Agent-Endpunkt mit einem Foundry-Agent verbunden ist).

Orchestrieren von Multi-Agent-Systemen

Multi-Agent-Systeme mit Agent-Dienst können entwickelt werden, um leistungsfähige autonome Workflows für bestimmte Szenarien zu erzielen. In Multi-Agent-Systemen interagieren mehrere kontextabhängige autonome Agenten, ob Mensch oder KI-Systeme, und arbeiten zusammen, um individuelle oder kollektive Ziele zu erreichen, die vom Benutzer festgelegt werden. Der Agentendienst funktioniert sofort einsatzbereit mit Multi-Agent-Orchestrierungsframeworks, die drahtgebunden kompatibel sind1 mit der Responses API, z. B. Microsoft Agent Framework, einem Open-Source-SDK und einer Laufzeitumgebung, mit dem Entwickler problemlos komplexe Multi-Agent-Systeme erstellen, bereitstellen und verwalten können.

Beginnen Sie beim Erstellen einer neuen Multi-Agent-Lösung mit der Erstellung von Singleton-Agents mit Agent Service, um die zuverlässigsten, skalierbaren und sichersten Agents zu erhalten. Anschließend können Sie diese Agents mithilfe der unterstützten Frameworks für die Orchestrierung gemeinsam orchestrieren. Microsoft Agent Framework entwickelt sich ständig weiter, um die besten Zusammenarbeitsmuster für Agenten (und Menschen) zu finden, um zusammenzuarbeiten. Funktionen, die den Produktionswert mit Microsoft Agent Framework darstellen, können dann in den Microsoft Foundry Agent Service verschoben werden, wenn Sie Produktionsunterstützung und nicht-unterbrechende Änderungen suchen.

Siehe die Häufig gestellten Fragen zur Transparenz des Agent Frameworks, um mehr über zusätzliche Überlegungen und Risiken bei der Erstellung von Multi-Agent-Orchestrierungen mit Microsoft Agent Framework zu erfahren.

Gießereiworkflows erweitern die Multi-Agent-Orchestrierung durch die Bereitstellung einer visuellen Designer- und YAML-basierten Konfiguration zum Erstellen, Testen und Bereitstellen von agentischen Prozessen. Jeder Workflow kann mehrere Agents koordinieren und eine modulare Automatisierung und Rückverfolgbarkeit ermöglichen. Der Workflow-Designer unterstützt Versionsverwaltung, Änderungsprotokolle und visuelle Überwachung, wodurch es einfacher ist, komplexe Logik zu verwalten und Transparenz sicherzustellen.

1Drahtlinie kompatibel bedeutet, dass eine API Daten in einer Weise kommunizieren und austauschen kann, die vollständig mit einem vorhandenen Protokoll, vorhandenen Datenformaten und Kommunikationsstandards kompatibel ist, in diesem Fall das Antwort-API-Protokoll. Dies bedeutet, dass zwei Systeme nahtlos zusammenarbeiten können, ohne dass Änderungen an ihrer Kernimplementierung erforderlich sind.

Anwendungsfälle

Beabsichtigte Verwendungen

Agent Service ist flexibel und einsatzfallagnostisch. Dies bietet mehrere Möglichkeiten zum Automatisieren von Routineaufgaben und zur Entsperrung neuer Möglichkeiten für die Wissensarbeit – ob es sich um persönliche Produktivitätsmitarbeiter handelt, die E-Mails senden und Besprechungen planen, Forschungsmitarbeiter, die kontinuierlich Markttrends überwachen und die Erstellung von Berichten automatisieren, Vertriebsmitarbeiter, die Leads recherchieren und automatisch qualifizieren können, Kundendienstmitarbeiter, die proaktiv mit personalisierten Nachrichten nachverfolgen, oder Entwickler-Agents, die Ihre Codebasis aktualisieren oder ein Code-Repository interaktiv entwickeln können. Hier sind Beispiele für beabsichtigte Verwendungen von Agents, die mit dem Agent-Dienst entwickelt wurden:

  • Gesundheitswesen: Optimierte Mitarbeiterorientierung und grundlegender administrativer Support: Der Verwaltungsassistent eines Krankenhauses stellt einen Agenten bereit, um standardbetriebliche Verfahren, Mitarbeiterverzeichnisse und Schichtrichtlinien in präzise Ausrichtungen für neue Pflegekräfte zusammenzufassen; Endgültige Materialien werden von HR überprüft und genehmigt, wodurch sich wiederholende Arbeit reduziert wird, ohne die Qualität der Inhalte zu beeinträchtigen.
  • Einzelhandel: Personalisierte Einkaufsleitfaden: Ein lokaler Boutique-Besitzer kann einen Agenten bereitstellen, der Geschenkoptionen basierend auf den angegebenen Bedürfnissen und früheren Einkäufen eines Kunden empfiehlt und kundenverantwortlich durch komplexe Produktkataloge führt, ohne voreingenommene oder irreführende Informationen zu pushen.
  • Stadtverwaltung: Bürgeranfragen-Triage und Koordination von Gemeindeereignissen: Ein Stadtangestellter verwendet einen Agenten, um eingehende Serviceanfragen zu kategorisieren (z. B. Schlaglochreparaturen), sie den richtigen Abteilungen zuzuweisen und einfache Statusberichte zu kompilieren; Beamte überprüfen und schließen die Kommunikation ab, um Transparenz und Genauigkeit aufrechtzuerhalten.
  • Bildung: Unterstützung bei der Recherche und Referenzsammlung: Ein Lehrer stützt sich auf einen Agenten, um altersgerechte Artikel und Ressourcen aus seriösen Quellen für eine planetarische Wissenschaftsstunde zu sammeln; der Lehrer überprüft die Materialien für die sachliche Genauigkeit und passt sie an den Lehrplan an, um sicherzustellen, dass die Schüler vertrauenswürdige Inhalte erhalten.
  • Fertigung: Bestandsüberwachung und Vorgangsplanung: Ein Vorgesetzter der Fabrik stellt einen Agenten bereit, um Lagerbestände zu überwachen, die Lagerhaltung zu planen, wenn die Versorgung niedrig ist, und die Schichtlisten zu optimieren; Das Management bestätigt die Vorschläge des Agenten und behält die endgültige Entscheidungsbehörde bei.
  • Deep Research Tool: Erfahren Sie mehr über beabsichtigte Verwendungen, Funktionen, Einschränkungen, Risiken und Überlegungen bei der Auswahl eines Anwendungsfallmodells mit deep research technology im Azure OpenAI-Transparenzhinweis.
  • Computernutzung: Das Tool "Computerverwendung" enthält zusätzliche erhebliche Sicherheits- und Datenschutzrisiken, einschließlich Eingabeaufforderungsangriffe. Erfahren Sie mehr über beabsichtigte Verwendungen, Funktionen, Einschränkungen, Risiken und Überlegungen bei der Auswahl eines Anwendungsfalls im Azure OpenAI-Transparenzhinweis.
  • Tool zur Bildgenerierung: Das Tool zur Bildgenerierung wird vom gpt-image-1-Modell unterstützt. Erfahren Sie mehr über beabsichtigte Verwendungen, Funktionen, Einschränkungen, Risiken und Überlegungen bei der Auswahl eines Anwendungsfallmodells im Azure OpenAI-Transparenzhinweis.

Agent-Proben haben bestimmte beabsichtigte Verwendungen, die von Entwicklern konfiguriert werden können, um sorgfältig die Agenten zu entwickeln, zu implementieren und bereitzustellen. Sehen Sie sich die Agent-Manifeste an.

Überlegungen bei der Auswahl eines Anwendungsfalls

Wir ermutigen Kunden, Den Agent Service in ihren innovativen Lösungen oder Anwendungen zu nutzen. Hier sind jedoch einige Punkte, die Sie bei der Auswahl eines Anwendungsfalls berücksichtigen sollten:

  • Vermeiden Sie Szenarien, in denen die Verwendung oder der Missbrauch des Systems zu erheblichen körperlichen oder psychischen Verletzungen eines Einzelnen führen kann. Beispielsweise können Szenarien, die Patienten diagnostizieren oder Medikamente verschreiben, das Potenzial haben, erhebliche Schäden zu verursachen.
  • Vermeiden Sie Szenarien, in denen sich die Nutzung oder der Missbrauch des Systems auf die Lebensmöglichkeiten oder den rechtlichen Status auswirken könnte. Beispiele sind Szenarien, in denen sich das KI-System oder der Agent auf den rechtlichen Status, die gesetzlichen Rechte oder den Zugang zu Krediten, Bildung, Beschäftigung, Gesundheitswesen, Wohnung, Versicherung, Sozialleistungen, Dienstleistungen, Chancen oder die Bedingungen auswirken könnte, in denen sie bereitgestellt werden.
  • Vermeiden Sie Szenarien mit hohem Einsatz, die zu Schaden führen könnten. Das in einem Agent verwendete Modell kann bestimmte gesellschaftliche Ansichten, Verzerrungen und andere unerwünschte Inhalte widerspiegeln, die in den Schulungsdaten oder den in der Aufforderung bereitgestellten Beispielen vorhanden sind. Daher warnen wir vor der Verwendung von Agenten in Szenarien mit hohem Einsatz, in denen unfaires, unzuverlässiges oder anstößiges Verhalten extrem kostspielig oder zu Schaden führen könnte.
  • Berücksichtigen Sie sorgfältig Anwendungsfälle in Bereichen mit hohem Einsatz oder in der Branche, in denen Agent-Aktionen unwiderruflich oder stark folgefähig sind. Zu diesen Branchen gehören unter anderem das Gesundheitswesen, der Medizinbereich, Finanzen oder Rechtsbereich. Zum Beispiel: die Fähigkeit, Finanztransaktionen zu tätigen oder Finanzberatung zu geben, die Möglichkeit, direkt mit externen Diensten zu interagieren, die Fähigkeit, Medizin zu verwalten oder gesundheitsbezogene Beratung zu geben, die Möglichkeit, vertrauliche Informationen öffentlich zu teilen, oder die Möglichkeit, Zugang zu kritischen Systemen zu gewähren.
  • Rechtliche und regulatorische Überlegungen. Microsoft nimmt Sicherheit und Einhaltung gesetzlicher und behördlicher Verpflichtungen ernst. Wir bemühen uns stets, die geltenden Gesetze, Vorschriften und Standards bei der Entwicklung und Bereitstellung von KI-Technologien, einschließlich des Microsoft Responsible AI Standard, einzuhalten. Es liegt in der Verantwortung Ihrer Organisation, Sicherheitsauswirkungen und potenzielle rechtliche und behördliche Verpflichtungen bei verwendung von Foundry Tools und Lösungen, einschließlich Agenten und zugrunde liegenden Agentenbeispielen, zu bewerten. KI-Antworten können ungenau sein, und KI-Aktionen sollten mit der menschlichen Aufsicht angemessen überwacht werden. Bestimmte Verwendungen und Angebote unterliegen möglicherweise gesetzlichen und behördlichen Anforderungen, erfordern möglicherweise Lizenzen oder sind für alle Branchen, Szenarien oder Anwendungsfälle nicht geeignet. Darüber hinaus dürfen Agenten und zugrunde liegende Agentenbeispiele nicht auf eine Weise verwendet werden, die durch geltende Gesetze, Vorschriften, Nutzungsbedingungen oder relevante Verhaltensregeln verboten ist.
  • Microsoft hat keine Systeme, APIs, Server, Agenten und Dienste von Drittanbietern erstellt, getestet oder überprüft. Wenn Sie eine Verbindung mit einem Drittanbietersystem (nicht Microsoft) herstellen, werden einige Daten für diesen Dienst freigegeben, und Ihre Anwendung oder Ihr Agent empfängt möglicherweise Daten zurück. Es wird empfohlen, zu überprüfen, welche Daten freigegeben werden, sowie die Praktiken von Drittanbietern in Bezug auf die Aufbewahrung und den Standort von Daten zu berücksichtigen. Überlegen und verwalten Sie sorgfältig, ob Ihre Daten außerhalb der Compliance- und geografischen Grenzen Ihrer Organisation und alle damit verbundenen Auswirkungen fließen. Microsoft hat keine Verantwortung für Sie oder andere Personen in Bezug auf Ihre Nutzung von Remotesystemen, APIs, Servern, Tools, Agents oder Diensten. Ihre Nutzung dieser Dienste unterliegt Ihrer Vereinbarung mit dem Anbieter. Sie sind für alle Nutzungs- und damit verbundenen Kosten verantwortlich.
  • Das Browserautomatisierungstool trägt erhebliche Sicherheitsrisiken und Benutzerverantwortung. Das Browserautomatisierungstool ist mit erheblichen Sicherheitsrisiken verbunden. Sowohl Fehler im Urteil der KI als auch das Vorhandensein böswilliger oder verwirrender Anweisungen auf Webseiten, auf denen die KI auftritt, können dazu führen, dass Befehle ausgeführt werden, die Sie oder andere nicht beabsichtigen, was die Sicherheit ihrer Browser oder anderer Benutzer browser, Computer und konten, auf die der Browser oder die KI Zugriff hat, gefährden könnte, einschließlich persönlicher, finanzieller oder unternehmensbezogener Systeme. Indem Sie das Browserautomatisierungstool verwenden, bestätigen Sie, dass Sie verantwortungs- und haftungspflichtig für jede Verwendung dieser Tools und aller daraus resultierenden Agents sind, einschließlich aller anderen Benutzer, denen Sie Browser Automation Tool-Funktionen zur Verfügung stellen, einschließlich über resultierende Agents. 

Einschränkungen

Technische Einschränkungen, Betriebsfaktoren und Reichweiten

  • Einschränkungen des generativen KI-Modells: Da der Agentdienst mit einer Vielzahl von Modellen funktioniert, erbt das Gesamtsystem die spezifischen Einschränkungen für diese Modelle. Bevor Sie ein Modell auswählen, das in Ihren Agenten integriert werden soll, bewerten Sie das Modell sorgfältig, um seine Einschränkungen zu verstehen. Erwägen Sie die Überprüfung des Azure OpenAI Transparency Note auf zusätzliche Informationen zu generativen KI-Einschränkungen, die wahrscheinlich auch für das System relevant sind, und überprüfen Sie andere bewährte Methoden zum Integrieren von generativen KI in Ihre Agentanwendung.
  • Tool-Orchestrierungskomplexe: KI-Agents sind von mehreren integrierten Tools und Datenconnectors (z. B. Bing Search, SharePoint und Azure Logic Apps) abhängig. Wenn eines dieser Tools falsch konfiguriert, nicht verfügbar ist oder inkonsistente Ergebnisse zurückgibt oder eine hohe Anzahl von Tools auf einem einzelnen Agent konfiguriert ist, kann die Anleitung des Agents fragmentiert, veraltet oder irreführend werden.
  • Ungleiche Darstellung und Unterstützung: Bei der Bereitstellung verschiedener Benutzergruppen können KI-Agents ungleiche Leistung zeigen, wenn Sprachvarianten, regionale Daten oder spezialisierte Wissensdomänen unterrepräsentiert sind. Ein Einzelhandelsmitarbeiter könnte beispielsweise Kunden, die unterrepräsentierte Sprachen sprechen, weniger zuverlässige Produktempfehlungen geben.
  • Undurchsichtige Entscheidungsprozesse: Da Agenten große Sprachmodelle mit externen Systemen kombinieren, kann die Verfolgung des "Warum" hinter ihren Entscheidungen zu einer Herausforderung werden. Ein Benutzer, der einen solchen Agenten verwendet, kann schwer verstehen, warum bestimmte Werkzeuge oder eine Kombination von Werkzeugen ausgewählt wurden, um eine Abfrage zu beantworten, was das Vertrauen und die Überprüfung der Ausgaben oder Aktionen des Agenten erschwert.
  • Entwickeln bewährter Methoden und Standards: Agents sind eine neue Technologie und Anleitungen zur sicheren Integration, transparenten Toolnutzung und verantwortungsvoller Bereitstellung entwickeln sich weiter. Die einhaltung der neuesten bewährten Methoden und Überwachungsverfahren ist entscheidend, da auch gut beabsichtigte Verwendungen ohne fortlaufende Überprüfung und Verfeinerung riskant werden können.

Systemleistung

Bewährte Methoden zur Verbesserung der Systemleistung

  • Bewerten sie die Agentleistung: Bewerten Sie Agents, wie gut sie Benutzeranforderungen zuverlässig identifizieren, geeignete Tools und Prozesse auswählen und zugewiesene Aufgaben einhalten. Verwenden Sie die folgenden Microsoft Azure AI Evaluation SDKValuatoren:
    • Intent-Auflösung: Misst, wie gut der Agent die Anforderung des Benutzers identifiziert, einschließlich wie gut er die Benutzerabsicht eingrenzt, Klarstellungsfragen stellt und Endbenutzer an seinen Funktionsumfang erinnert.
    • Toolaufrufgenauigkeit: Wertet die Fähigkeit des Agents aus, die entsprechenden Tools auszuwählen und die richtigen Parameter aus den vorherigen Schritten zu verarbeiten.
    • Aufgabeneinhaltung: Misst, wie gut die endgültige Antwort des Agent den ihm zugewiesenen Aufgaben entspricht, entsprechend seiner Nachricht vom System und den vorherigen Schritten.
  • Bereitstellen vertrauenswürdiger Daten: Das Abrufen oder Hochladen nicht vertrauenswürdiger Daten in Ihre Systeme kann die Sicherheit Ihrer Systeme oder Anwendungen beeinträchtigen. Um diese Risiken in Ihren Anwendungen mithilfe des Agentdiensts zu minimieren, empfehlen wir, LLM-Interaktionen (Eingaben/Ausgaben) zu protokollieren und zu überwachen, um potenzielle Eingabeaufforderungseinfügungen zu erkennen und zu analysieren, benutzereingaben klar zu definieren, um das Risiko der Einfügung von Eingabeaufforderungen zu minimieren, den Zugriff des LLM auf sensible Ressourcen einzuschränken, seine Funktionen auf das erforderliche Minimum zu beschränken und sie von kritischen Systemen und Ressourcen zu isolieren. Erfahren Sie mehr über zusätzliche Gegenmaßnahmen in der Sicherheitsanleitung für große Sprachmodelle.
  • Wählen Sie Tools und integrieren Sie sie durchdacht: Wählen Sie Tools aus, die stabil, gut dokumentiert sind und für die beabsichtigten Verwendungen und Ziele des Agenten geeignet sind. Verwenden Sie z. B. einen zuverlässigen Datenbankkonnektor für faktenbezogene Nachschlagevorgänge oder eine gut getestete API zum Ausführen bestimmter Aktionen. Beschränken Sie die Anzahl der Tools auf diejenigen, die die Funktionalität wirklich verbessern, und geben Sie an, wie und wann der Agent sie verwenden soll.
  • Stellen Sie proaktive Steuerelemente für Systemgrenzen bereit: Erwägen Sie das Erstellen von Benutzersteuerelementen, um Benutzern, die den KI-Agent betreiben, die Möglichkeit zu geben, proaktiv Grenzen für die zulässigen Aktionen oder Tools festzulegen und in welchen Domänen der Agent arbeiten kann.
  • Einrichten von Echtzeitüberwachungs- und Human-in-the-Loop-Prozessen: Erwägen Sie, Benutzern angemessene Echtzeitsteuerelemente bereitzustellen, um agentische Systemverhalten zu autorisieren, zu überprüfen, zu überprüfen und zu genehmigen, einschließlich Aktionen, geplante Aufgaben, Betriebssystem- oder Domänengrenzen sowie Zugriff auf Wissens- oder Aktionstools. Insbesondere bei kritischen oder hohen Vorgängen sollten Sie die Einbeziehung obligatorischer Schritte zur Überprüfung und Genehmigung durch den Benutzer in Betracht ziehen. Stellen Sie sicher, dass ein Benutzer oder ein menschlicher Operator problemlos eingreifen, korrigieren oder überschreiben kann, insbesondere, wenn diese Entscheidungen Sicherheits- oder rechtliche Auswirkungen haben. Weitere Informationen finden Sie unter Overreliance on AI.
  • Sicherstellen der Verständlichkeit und Rückverfolgbarkeit für die entscheidungsfindung von Menschen: Stellen Sie Benutzern Informationen vor, während und nach der Ausführung von Maßnahmen zur Verfügung, um ihnen zu helfen, Begründungen für Entscheidungen zu verstehen, zu identifizieren, wo sie eingreifen müssen, und Probleme zu beheben. Integrieren Sie die Instrumentierung oder Protokollierung innerhalb des Systems, wie z. B. OpenTelemetry-Traces vom Agent-Dienst, um Ausgaben, einschließlich Prompts, Modellschritte und Tool-Aufrufe, zu verfolgen. Dies ermöglicht die Wiederherstellung des Begründungsprozesses des Agenten, die Isolation von Problemen, die Optimierung von Eingabeaufforderungen, die Verfeinerung der Werkzeugintegration und die Überprüfung der Richtlinientreue. Weitere Informationen finden Sie unter Ablaufverfolgung mithilfe von Application Insights.
  • Anweisungen und Anleitungen für Layer-Agenten: Unterteilen Sie komplexe Aufgaben in Schritte oder Unteranweisungen innerhalb der Systemaufforderung. Dies kann dem Agenten helfen, die mehrstufige Begründung effektiver zu bewältigen, Fehler zu reduzieren und die Klarheit der endgültigen Ausgabe zu verbessern.
  • Erkennen Sie Komplexitätsschwellenwerte für die Skalierung: Wenn die Systemnachricht eines einzelnen Agents konsistent Schwierigkeiten hat, die Komplexität, Breite oder Tiefe einer Aufgabe zu bewältigen, z. B. häufig unvollständige Ergebnisse produziert, auf Engpässe stößt oder umfangreiche domänenspezifische Kenntnisse erfordert, kann das System von einem Übergang zu einer Multi-Agent-Architektur profitieren. Überwachen Sie als bewährte Methode Leistungsindikatoren wie Antwortgenauigkeit, Latenz und Fehlerhäufigkeit. Wenn Verfeinerungen an die Eingabeaufforderung des einzelnen Agents keine verbesserten Ergebnisse mehr liefern, sollten Sie erwägen, die Workload in spezialisierte Teilvorgänge zu dekompilieren, die jeweils von ihrem eigenen Agenten gesteuert werden. Durch die Segmentierung komplexer Aufgaben (z. B. Aufteilen von Politikforschung und Richtlinieninterpretation in separate Agenten) können Sie Modularität beibehalten, spezialisiertes Domänenwissen effektiver nutzen und kognitive Überlastung auf jedem einzelnen Agenten reduzieren.

Auswerten und Integrieren des Agentendienstes für Ihre Nutzung

  • Risiken und Auswirkungen von Agenten kartieren. Bevor Sie Ihre agentische Anwendung entwickeln oder bereitstellen, sollten Sie sorgfältig die Auswirkungen der beabsichtigten Aktionen und die Folgen von Aktionen oder Tools berücksichtigen, die nicht wie beabsichtigt funktionieren – z. B. generieren oder Maßnahmen zu ungenauen Informationen ergreifen oder zu voreingenommenen oder unfairen Ergebnissen führen – in verschiedenen Phasen.
  • Sicherstellen einer angemessenen menschlichen Aufsicht und Kontrolle. Erwägen Sie, Steuerelemente einzuschließen, um Benutzern zu helfen, Aktionen rechtzeitig zu überprüfen und/oder zu genehmigen. Dies kann die Überprüfung geplanter Aufgaben oder Aufrufe an externe Datenquellen umfassen, je nach Ihrem System. Erwägen Sie die Einbeziehung von Steuerelementen zur angemessenen Behebung von Systemfehlern, insbesondere in Szenarien mit hohem Risiko und Anwendungsfällen. Das MCP-Tool ermöglicht es Ihnen beispielsweise, benutzerdefinierte Header wie Authentifizierungsschlüssel oder Schemas zu übergeben, falls sie von einem Remote-MCP-Server benötigt werden. In solchen Fällen empfehlen wir, alle Daten, die mit Remoteservern geteilt werden, zu überprüfen und optional zu protokollieren, um Überwachungszwecke zu erfüllen. Beachten Sie die Praktiken dritter Parteien für die Aufbewahrung und den Speicherort von Daten.
  • Klare Definition von Aktionen und zugehörigen Anforderungen. Es kann klar definiert werden, welche Aktionen zulässig sind (Aktionsgrenzen), verboten oder explizite Autorisierung erforderlich sind, damit Ihr agentisches System erwartungsgemäß und mit der entsprechenden Ebene der menschlichen Aufsicht funktioniert.
  • Klare Definition beabsichtigter Betriebssystemumgebungen. Definieren Sie klar die beabsichtigten Betriebsumgebungen (Domänengrenzen), in denen Ihr Agent effektiv arbeiten soll.
  • Stellen Sie eine angemessene Verständlichkeit bei der Entscheidungsfindung sicher. Die Bereitstellung von Informationen für Benutzer vor, während und nach dem Ausführen von Aktionen und/oder Tools kann ihnen helfen, die Begründung der Aktion zu verstehen oder warum bestimmte Aktionen ausgeführt wurden oder die Anwendung sich auf eine bestimmte Weise verhält, wo sie eingreifen und wie Sie Probleme beheben können.
  • Befolgen Sie zusätzliche generative KI-bewährte Methoden, die für Ihr System geeignet sind, einschließlich Empfehlungen im Azure OpenAI Transparency Note.

Erfahren Sie mehr über verantwortungsvolle KI

Weitere Informationen zum Foundry Agent Service