Hier finden Sie Antworten auf häufig gestellte Fragen zu Foundry IQ.
Allgemein
Was ist Foundry IQ?
Foundry IQ ermöglicht Es Agenten, von überall aus auf Wissen zuzugreifen, zu verarbeiten und zu handeln.
Mit Foundry IQ erstellen Sie eine Wissensbasis , die eine Verbindung mit einer oder mehreren Wissensquellen herstellt. Das agentic retrieval Engine verarbeitet Abfragen und ein optionales Großsprachmodell (LLM) aus Azure OpenAI in Foundry Models fügt Abfrageplanung und -begründung hinzu. Agents, die im Foundry Agent Service integriert sind, rufen die Knowledge Base auf, um relevante Inhalte abzurufen.
Was ist der Unterschied zwischen Foundry IQ und agentischer Abruf?
Foundry IQ besteht aus Wissensdatenbanken, Wissensquellen und nativen Integrationen mit Azure OpenAI in Foundry Models and Foundry Agent Service. Das Microsoft Foundry (new) Portal bietet eine optimierte End-to-End-Einrichtungserfahrung, aber Sie können die Foundry IQ-Komponenten auch programmgesteuert erstellen.
Agentenbasierte Suche ist die Mehrfachabfrage-Suchmaschine, die die Foundry IQ Knowledge-Basen antreibt. Für benutzerdefinierte Lösungen können Sie den agentischen Abruf direkt über die Azure KI-Suche-APIs verwenden.
Wie unterscheidet sich Foundry IQ von vorhandenen RAG-Mustern oder Azure OpenAI On Your Data?
Eine Findry IQ Knowledge Base bietet Zugriff auf mehrere Quellen, wodurch die Notwendigkeit entfernt wird, jeden Agent einzeln mit jeder Quelle zu verbinden.
Das agentische Abrufmodul plant, welche Quellen sie abfragen und iterative Suche ausführen, wenn die ersten Ergebnisse nicht den Relevanzstandards entsprechen. Indizierung und Datensynchronisierung werden automatisch ausgelöst. Iterative Suche hängt von der Angabe eines mittleren Aufwands für die Abrufüberlegung in der Wissensbasis oder pro Anfrage ab.
Komponenten und Anforderungen
Ist Azure KI-Suche für Foundry IQ erforderlich?
Ja. Foundry IQ basiert auf Azure KI-Suche agentischen Abruffunktionen. Sie müssen eine Wissensbasis in Azure KI-Suche erstellen, um Foundry IQ zu verwenden.
Ist Der Foundry Agent Service für Foundry IQ erforderlich?
Nein. Sie können Wissensdatenbanken aus dem Foundry Agent Service, Microsoft Agent Framework oder einer beliebigen Anwendung aufrufen, die die Knowledge Base-APIs aus Azure KI-Suche unterstützt. Der Foundry Agent Service bietet jedoch eine schlüsselfertige Agent-Hostingplattform mit integrierter Unterstützung für Foundry IQ Knowledge Basen.
Haben Foundry IQ und agentisches Abrufen eine starke Abhängigkeit von LLMs?
Die LLM-Verwendung für die Abfrageplanung ist optional, wird jedoch empfohlen. Ohne LLM können Sie den minimalen Abruf mit minimalem Denkaufwand beim agentenbasierten Abruf verwenden, um Ergebnisse aus mehreren Abfragen über Wissensquellen hinweg zusammenzuführen.
Um von der parallelen Verarbeitung mehrerer Unterabfragen zu profitieren, ist die LLM-Abfrageplanung erforderlich. Die agentenbasierte Abrufengine nutzt die LLM-Abfrageprozessplanung bei geringem und mittlerem Abrufaufwand für einen gründlicheren Abruf.
Welche LLM-Modelle werden für die Abfrageplanung unterstützt?
Nur gpt-4o-, gpt-4.1- und gpt-5-Serienmodelle aus Azure OpenAI in Foundry Models werden für die Abfrageplanung unterstützt. Die vollständige Liste finden Sie unter "Unterstützte Modelle". Sie geben die Modellbereitstellung an, wenn Sie die Knowledge Base erstellen.
Wissensdatenbanken und Wissensquellen
Was ist eine Wissensbasis?
Eine Wissensdatenbank ist ein Objekt auf oberster Ebene, das eine oder mehrere Wissensquellen unter einem einzelnen Endpunkt gruppiert. Die Konfiguration steuert, wie Quellen ausgewählt werden (über Abrufanweisungen und Gründe) und wie Ergebnisse zurückgegeben werden (über den Ausgabemodus und Antwortanweisungen). Eine LLM-Verbindung ermöglicht die Abfrageplanung und Antwortsynthese.
Zur Abfragezeit verwendet das agentische Abrufmodul diese Konfiguration zum Verarbeiten von Anforderungen. Zugriffssteuerungen auf Benutzerebene werden nur erzwungen, wenn die Wissensquelle Berechtigungen auf Dokumentebene unterstützt und wenn diese Berechtigungen explizit für die Synchronisierung konfiguriert wurden. Sofern die Unterstützung für vorkonfigurierte Benutzerberechtigungen nicht explizit in der Dokumentation der Wissensquelle angegeben ist, werden Zugriffssteuerungen auf Dokumentebene nicht automatisch berücksichtigt.
Welche Wissensquellen werden unterstützt?
Es gibt zwei Arten von Wissensquellen:
Indizierte Wissensquellen importieren Daten in einen Suchindex und behandeln automatisch die Datenaufteilung, Vektorisierung, Metadatenextraktion und die Synchronisierung der Zugriffskontrollliste (ACL). Zu den unterstützten indizierten Quellen gehören Azure Blob Storage, OneLake, SharePoint und vorhandene Suchindizes.
Remote-Wissensquellen erfassen oder speichern keine Daten. Stattdessen stellen sie On-Demand-Abfragen zum Abrufzeitpunkt an das externe System aus. Unterstützte Remotequellen umfassen SharePoint (über die Copilot-Abruf-API) und das Web (über Grounding mit Bing).
Wie oft werden indizierte Daten aktualisiert?
Indizierte Wissensquellen verwenden Azure KI-Suche Indexer für die Datenaufnahme. Sie können wiederkehrende Indexlaufläufe für die inkrementelle Datenaktualisierung planen. Die Häufigkeit hängt von der Konfiguration des Indizierungszeitplans ab.
Remote-Wissensquellen fragen externe Systeme bei Bedarf ab, sodass Daten immer aktuell sind.
Agentenbasierter Abruf
Was ist agentischer Abruf?
Agentic retrieval ist die Suchmaschine, die Anfragen gegen eine Wissensdatenbank verarbeitet.
Es wählt aus, welche Wissensquellen abgefragt werden sollen, leitet die Anfragen entsprechend weiter und kann automatisch iterieren, wenn die anfänglichen Ergebnisse unvollständig sind. Wenn die Wissensbasis ein LLM enthält, führt die agentengeleitete Suche auch Abfrageplanung und höheres Denken aus, um den Suchprozess zu optimieren. Sie können die Kosten und Latenz des Suchvorgangs steuern, indem Sie den Abrufaufwand der Wissensbasis festlegen.
Benchmarks zeigen, dass der agentenbasierte Abruf um ungefähr 36% höhere Antwortqualität als herkömmliche Single-Shot-RAG erreicht.
Was ist die Abfrageplanung beim agentischen Abruf?
Die Abfrageplanung ist der Prozess, mit dem eine LLM eine komplexe Abfrage in kleinere, fokussiertere Unterabfragen für eine umfassendere Abdeckung Ihres Suchkorpus aufschlüsselt. Sie enthält auch die Logik für die Auswahl einer Wissensquelle über eine andere.
Sie können die Auswahl von Wissensquellen beeinflussen, indem Sie Beschreibungen zu indizierten Wissensquellen und Abrufanweisungen zu Ihrer Wissensbasis hinzufügen. Sie können z. B. "Den Mitarbeiterhandbuch-Index für Fragen zur Abwesenheit verwenden" und "den Krankenversicherungsindex für Fragen zur medizinischen Abdeckung verwenden".
Wie wird die Abfrageplanung aufgerufen?
Die Abfrageplanung wird aufgerufen, wenn Sie den niedrigen oder mittleren Aufwand für Abrufüberlegungen in einer Wissensdatenbank angeben.
Was ist der Aufwand für die Abrufschlussfolgerung?
Der Abrufgrundaufwand bestimmt, wie viel LLM-gesteuerte Planung während des agentischen Abrufs verwendet wird. Ebenen reichen von minimal bis mittel, beeinflussen, wie tief das System die Abfrage interpretiert, Quellen auswählt und entscheidet, ob weitere Abrufschritte erforderlich sind.
Was sind die Grenzwerte für jede Abruf-Grund-Engagement-Stufe?
Die Grenzwerte variieren je nach Denkaufwandsniveau.
Minimal: Bis zu 10 Wissensquellen. Keine LLM-Verarbeitung, keine Abfrageplanung und keine Antwortsynthese.
Niedrig: Bis zu drei Wissensquellen und drei Unterabfragen. Unterstützt die Antwortsynthese mit einem Budget von 5.000 Token.
Mittel: Bis zu fünf Wissensquellen und fünf Unterabfragen. Unterstützt iterative Such- und Antwortsynthese mit einem Budget von 10.000 Token.
Weitere Informationen finden Sie unter Agentic-Abrufgrenzwerte.
Was ist Die Antwortsynthese? Sollte ich es für eine Findry IQ-Wissensbasis verwenden?
Bei der Antwortsynthese wird eine LLM verwendet, um eine vollständige, natürlichsprachige Antwort basierend auf abgerufenen Inhalten zu generieren. Antwortsynthese ist für Web-Wissensquellen erforderlich.
Verwenden Sie für die meisten Foundry IQ-Szenarien extraktive Daten anstelle der Antwortsynthese. Extraktive Daten liefern rohe Inhalte, über die Agenten nachdenken können und die sie in ihre Antworten integrieren können. Reservieren Sie die Synthese von Antworten für unabhängige Anwendungen, bei denen die Abrufausgabe direkt an die Benutzer ohne Agentenverarbeitung geht.
Verfügbarkeit und Preise
Wo ist Foundry IQ verfügbar? Wie wird es in Rechnung gestellt?
Foundry IQ unterliegt der regionalen Verfügbarkeit und Abrechnung seiner zugrunde liegenden Dienste: Azure KI-Suche und gegebenenfalls Azure OpenAI in Foundry Models.
Ist Foundry IQ kostenlos zu verwenden?
Azure KI-Suche bietet ein kostenloses Preisniveau und eine kostenlose Tokenzuordnung für den agentischen Abruf. Der Foundry Agent-Dienst berechnet keine Kosten für Agent-Instanzen.
Nachdem Sie die kostenlose Zuweisung ausgeschöpft haben, wird der agentische Abruf basierend auf dem Tokenverbrauch in Azure KI-Suche abgerechnet. Die LLM-Verwendung für die Abfrageplanung und Antwortsynthese verursacht separate Gebühren von Azure OpenAI in Foundry Models.
Sicherheit und Governance
Wie behandelt Foundry IQ Berechtigungen?
Die Durchsetzung von Berechtigungen variiert je nach Wissensquelle. Je nach Datenquelle können indizierte Wissensquellen die Sicherheit auf Dokumentebene über ACLs, rollenbasierte Zugriffssteuerung oder beides unterstützen. Zur Abfragezeit werden Die Ergebnisse basierend auf der Identität des Benutzers gefiltert.
Remote-SharePoint-Wissensquellen erzwingen Berechtigungen direkt über die Copilot-Abruf-API, mit sofort einsatzbereiter Unterstützung für ACLs und Microsoft-Purview-Vertraulichkeitsbezeichnungen.
Welche Authentifizierungsmethoden werden unterstützt?
Verwenden Sie für Verbindungen zwischen Azure KI-Suche und anderen Azure-Diensten (z. B. Azure OpenAI oder Azure Blob Storage) verwaltete Identitäten mit Microsoft Entra ID (empfohlen) oder API-Schlüsseln.
Remote-SharePoint-Wissensquellen erfordern, dass Endbenutzer über eine gültige Copilot-Lizenz verfügen.
Problembehandlung
Warum gibt mein Agent keine Ergebnisse aus meiner Wissensbasis zurück?
Häufige Ursachen sind:
- Fehlender Werkzeugaufruf in Agentenanweisungen.
- Berechtigungsprobleme zwischen dem Agenten und der Wissensbasis.
- Falsche Projektverbindungskonfiguration.
- Leere oder falsch konfigurierte Wissensquellen.
Hilfe zum Isolieren des Problems finden Sie unter "Problembehandlung".
Wie debuge ich agentische Abrufabfragen?
Verwenden Sie den Chat-Spielplatz im Azure-Portal, um Abfragepläne, Unterabfragen und Abrufschritte für Ihre Wissensdatenbank anzuzeigen. Aktivieren Sie die Diagnoseprotokollierung für detaillierte Anforderungs-/Antwortdaten.
Verwandte Produkte
Wie bezieht sich Foundry IQ auf Fabric IQ und Work IQ?
Microsoft bietet drei IQ-Workloads für Agent-native Systeme: Fabric IQ for Business Analytics, Work IQ for Microsoft 365 Collaboration und Foundry IQ for Enterprise Knowledge.
Jede IQ-Workload ist eigenständig, aber sie können zusammenarbeiten, um praktisch jede organisationsspezifische Frage von einem Agenten zu beantworten.
Was ist der Unterschied zwischen Copilot Wissensquellen und Gießerei IQ-Wissensquellen?
Das Konzept ist identisch: Das Verbinden von Agents mit Unternehmensdaten. Die unterstützten Datenquellen unterscheiden sich jedoch je nach Plattform und sind nicht interoperabel. Mit anderen Worten, Sie können Findry IQ-Wissensquellen nicht in Copilot verwenden, und Sie können nicht Copilot Wissensquellen in Foundry IQ verwenden.