Azure OpenAI (Vorschau)
Integrieren Sie ganz einfach Azure OpenAI modernste Künstliche Intelligenz-Funktionen in Ihre Workflows
Dieser Connector ist in den folgenden Produkten und Regionen verfügbar:
| Dienstleistung | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Alle Power Automate Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Logik-Apps | Norm | Alle Logik-Apps-Regionen mit Ausnahme der folgenden Bereiche: - Azure Government Regionen - Azure China-Regionen - US Department of Defense (DoD) |
| Power Apps | Premium | Alle Power Apps Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Power Automate | Premium | Alle Power Automate Regionen mit Ausnahme der folgenden: - US Government (GCC) - US Government (GCC High) - China Cloud betrieben von 21Vianet - US Department of Defense (DoD) |
| Kontakt | |
|---|---|
| Name | Microsoft |
| URL | https://support.microsoft.com |
| Connectormetadaten | |
|---|---|
| Publisher | Microsoft |
| Webseite | https://azure.microsoft.com/en-us/products/cognitive-services/openai-service |
| Datenschutzrichtlinie | https://learn.microsoft.com/en-us/legal/cognitive-services/openai/data-privacy |
| Kategorien | Künstliche Intelligenz; Business Intelligence |
mit Azure OpenAI On Your Data können Sie erweiterte KI-Modelle wie GPT-35-Turbo und GPT-4 auf Ihren eigenen Unternehmensdaten ausführen, ohne Modelle trainieren oder optimieren zu müssen. Sie können übereinander chatten und Ihre Daten mit größerer Genauigkeit analysieren. Sie können auch Quellen angeben, die die Antworten des Modells basierend auf den neuesten Informationen unterstützen, die in Ihren angegebenen Datenquellen verfügbar sind, oder die Datenquelle weglassen, um Ihr Azure OpenAI-Modell ohne Erdungsdaten aufzurufen.
Voraussetzungen
- Azure-Abonnement – Zu kostenlos erstellen.
- Apply um Zugriff auf Azure OpenAI zu erhalten. Azure OpenAI erfordert eine Registrierung und ist derzeit nur für genehmigte Unternehmenskunden und -partner verfügbar. Weitere Informationen finden Sie unter eingeschränkten Zugriff auf Azure OpenAI Service.
-
Create an Azure OpenAI resource im Azure Portal. Stellen Sie sicher, dass Sie Ihre Ressource in einer unterstützten Region mit einem unterstützten Modell erstellen.
- Stellen Sie sicher, dass Sie mindestens die Rolle Cognitive Services Contributor für die Azure OpenAI-Ressource zugewiesen sind.
- Create an Azure KI-Suche resource in the Azure portal and follow the best practices for preparing data in your Azure KI-Suche instance for use with the Azure OpenAI On Your Data service.
Tipp
Wenn Sie Azure OpenAI On Your Data zum ersten Mal verwenden, probieren Sie das quickstart aus, um mit dem Dienst zu beginnen.
Holen Sie Ihre Anmeldeinformationen ab
Um Ihre API-Anforderungen zu authentifizieren, benötigen Sie den Schlüssel und endpunkt für Ihre Azure OpenAI- und Azure KI-Suche-Ressourcen.
Für Ihre Azure OpenAI-Ressource:
- Navigieren Sie im portal Azure zu Ihrer Ressource.
- Wählen Sie auf der Seite für Ihre Ressource im linken Navigationsmenü "Schlüssel" und "Endpunkt " aus. Notieren Sie sich Ihre Anmeldeinformationen. Sie verwenden einen Ihrer Schlüssel und Ihren Endpunkt.
Für Ihre Azure KI-Suche Ressource:
- Navigieren Sie im portal Azure zu Ihrer Ressource.
- Notieren Sie sich auf der Seite "Übersicht" für Ihre Ressource die URL.
- Wählen Sie im linken Navigationsmenü die Tasten aus. Sie verwenden einen Ihrer Administratorschlüssel.
Bekannte Probleme und Einschränkungen
- Nur Azure KI-Suche wird als Datenquelle für die Verwendung von Azure OpenAI für Ihre Daten mit diesem Power Platform-Connector unterstützt.
- Funktionsaufrufe werden nicht unterstützt.
- Bilder werden in Nachrichteninhalten nicht unterstützt.
Erstellen einer Verbindung
Der Connector unterstützt die folgenden Authentifizierungstypen:
| API-Schlüssel | Stellen Sie Azure OpenAI-Ressourcennamen und API-Schlüssel bereit, um auf Ihre Azure OpenAI zuzugreifen, die das AI-Modell hosten. | Alle Regionen | Freigabefähig |
| Verwaltete Logic Apps-Identität | Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität | NUR LOGICAPPS | Freigabefähig |
| Standard [VERALTET] | Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt. | Alle Regionen | Nicht teilbar |
API-Schlüssel
Auth-ID: keyBasedAuth
Anwendbar: Alle Regionen
Stellen Sie Azure OpenAI-Ressourcennamen und API-Schlüssel bereit, um auf Ihre Azure OpenAI zuzugreifen, die das AI-Modell hosten.
Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumentation
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| Azure OpenAI-Ressourcenname | Schnur | Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten soll | Richtig |
| Azure OpenAI-API-Schlüssel | securestring | Der API-Schlüssel für den Zugriff auf die Azure OpenAI-Ressource, die das KI-Modell hosten soll | Richtig |
| Azure Cognitive Search Endpunkt-URL | Schnur | Die URL des Azure Cognitive Search Endpunkts, der Ihre Daten indiziert | |
| Azure Cognitive Search API-Schlüssel | securestring | Der API-Schlüssel für den Zugriff auf die Azure Cognitive Search Endpunktindizierung Ihrer Daten |
Verwaltete Identität von Logik-Apps
Auth-ID: managedIdentityAuth
Anwendbar: NUR LOGICAPPS
Erstellen einer Verbindung mit einer verwalteten LogicApps-Identität
Dies ist eine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird auch die Verbindung freigegeben. Weitere Informationen finden Sie in der Übersicht über Connectors für Canvas-Apps – Power Apps | Microsoft-Dokumentation
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| LogicApps Managed Identity | managedIdentity | Anmelden mit einer verwalteten Logik-App-Identität | Richtig |
| Azure OpenAI-Ressourcenname | Schnur | Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten soll | Richtig |
Standard [VERALTET]
Anwendbar: Alle Regionen
Diese Option ist nur für ältere Verbindungen ohne expliziten Authentifizierungstyp vorgesehen und wird nur aus Gründen der Abwärtskompatibilität bereitgestellt.
Dies ist keine freigabefähige Verbindung. Wenn die Power-App für einen anderen Benutzer freigegeben wird, wird ein anderer Benutzer aufgefordert, eine neue Verbindung explizit zu erstellen.
| Name | Typ | Description | Erforderlich |
|---|---|---|---|
| Azure OpenAI-Ressourcenname | Schnur | Der Name der Azure OpenAI-Ressource, die das KI-Modell hosten soll | Richtig |
| Azure OpenAI-API-Schlüssel | securestring | Der API-Schlüssel für den Zugriff auf die Azure OpenAI-Ressource, die das KI-Modell hosten soll | Richtig |
| Azure Cognitive Search Endpunkt-URL | Schnur | Die URL des Azure Cognitive Search Endpunkts, der Ihre Daten indiziert | |
| Azure Cognitive Search API-Schlüssel | securestring | Der API-Schlüssel für den Zugriff auf die Azure Cognitive Search Endpunktindizierung Ihrer Daten |
Drosselungsgrenzwerte
| Name | Aufrufe | Verlängerungszeitraum |
|---|---|---|
| API-Aufrufe pro Verbindung | 1000 | 60 Sekunden |
Aktionen
| Abrufen einer Einbettung |
Abrufen einer Vektordarstellung einer bestimmten Eingabe, die von Machine Learning-Modellen und Algorithmen problemlos genutzt werden kann |
| Abrufen mehrerer Einbettungen |
Abrufen von Vektordarstellungen eines bestimmten Arrays von Eingaben, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden können |
| Erstellt eine Vervollständigung für die Chatnachricht |
Erstellt eine Vervollständigung für die Chatnachricht |
| Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten |
Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten |
Abrufen einer Einbettung
Abrufen einer Vektordarstellung einer bestimmten Eingabe, die von Machine Learning-Modellen und Algorithmen problemlos genutzt werden kann
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
Eingabe
|
input | True | string |
Eingabetext zum Abrufen von Einbettungen, codiert als Zeichenfolge. Eingabezeichenfolge darf 2048 Token in der Länge nicht überschreiten |
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. |
|
|
input_type
|
input_type | string |
Der Eingabetyp der zu verwendenden Einbettungssuche. |
Gibt zurück
Abrufen mehrerer Einbettungen
Abrufen von Vektordarstellungen eines bestimmten Arrays von Eingaben, die einfach von Machine Learning-Modellen und Algorithmen genutzt werden können
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
Eingabe
|
input | True | array of string |
Array von Eingabetexten zum Abrufen von Einbettungen, codiert als Zeichenfolge. Jede Eingabezeichenfolge darf 2048 Token nicht länger als 2048 Token sein. |
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. |
|
|
input_type
|
input_type | string |
Der Eingabetyp der zu verwendenden Einbettungssuche. |
Gibt zurück
Erstellt eine Vervollständigung für die Chatnachricht
Erstellt eine Vervollständigung für die Chatnachricht
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
Temperatur
|
temperature | number |
Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder |
|
|
top_p
|
top_p | number |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder |
|
|
Datenstrom
|
stream | boolean |
Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine |
|
|
stop
|
stop | array of string |
Bis zu vier Sequenzen, bei denen die API aufhört, weitere Token zu generieren. Die Beendigungssequenz ist nicht im zurückgegebenen Text enthalten. |
|
|
maximale_Anzahl_von_Tokens
|
max_tokens | integer |
Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). |
|
|
presence_penalty
|
presence_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
|
|
frequency_penalty
|
frequency_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
|
|
logit_bias
|
logit_bias | object |
Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
|
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. |
|
|
role
|
role | True | string |
Die Rolle des Nachrichtenautors. |
|
Inhalt
|
content | True | string |
Ein Array von Inhaltsteilen mit einem definierten Typ, jeder kann vom Typ |
|
type
|
type | True | string |
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chaterweiterung. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel. |
|
top_n_documents
|
top_n_documents | integer |
Die konfigurierte maximale Anzahl von Dokumenten, die für die konfigurierte Abfrage bereitgestellt werden sollen. |
|
|
in_scope
|
in_scope | boolean |
Gibt an, ob Abfragen auf die Verwendung von indizierten Daten beschränkt werden sollen. |
|
|
Striktheit
|
strictness | integer |
Die konfigurierte Strenge der Suchrelevanzfilterung. Je höher die Strenge, desto höher der Genauigkeit, aber desto der niedrigerer Antwortabruf. |
|
|
Rolleninformationen
|
role_information | string |
Gibt dem Modell Anweisungen dazu, wie es sich verhalten soll und auf welchen Kontext es beim Generieren einer Antwort verweisen soll. Sie können die Persönlichkeit des Assistenten beschreiben und ihm mitteilen, wie Antworten formatiert werden sollen. Hierfür gilt eine Obergrenze von 100 Token, und der Wert wird auf die Gesamtmenge der Token angerechnet. |
|
|
index_name
|
index_name | True | string |
Der Name des Indexes, der in der referenzierten Azure Suchressource als verfügbar verwendet werden soll. |
|
Titel_Feld
|
title_field | string |
Der Name des Indexfelds, das als Titel verwendet werden soll. |
|
|
url_field
|
url_field | string |
Der Name des Indexfelds, das als URL verwendet werden soll. |
|
|
filepath_field
|
filepath_field | string |
Der Name des Indexfelds, das als Dateipfad verwendet werden soll. |
|
|
Inhaltsfelder
|
content_fields | array of string |
Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. |
|
|
content_fields_separator
|
content_fields_separator | string |
Das Trennmuster, das Inhaltsfelder verwenden sollen. |
|
|
Vektorfelder
|
vector_fields | array of string |
Die Namen von Feldern, die Vektordaten darstellen. |
|
|
Abfrage_typ
|
query_type | string |
Der Typ der Azure Suchabrufabfrage, die bei verwendung als Azure OpenAI-Chaterweiterung ausgeführt werden soll. |
|
|
semantische_Konfiguration
|
semantic_configuration | string |
Die zusätzliche semantische Konfiguration für die Abfrage. |
|
|
Filter
|
filter | string |
Suchfilter. |
|
|
type
|
type | string |
Stellt die verfügbaren Quellen dar, Azure OpenAI On Your Data verwendet werden kann, um die Vektorisierung von Daten für die Verwendung mit der Vektorsuche zu konfigurieren. |
|
|
deployment_name
|
deployment_name | True | string |
Gibt den Namen der Modellimplementierung an, die für die Vektorisierung verwendet werden soll. Diese Modellbereitstellung muss sich in derselben Azure OpenAI-Ressource befinden, aber In Ihren Daten wird diese Modellbereitstellung über einen internen Aufruf anstelle eines öffentlichen Aufrufs verwendet, wodurch die Vektorsuche auch in privaten Netzwerken ermöglicht wird. |
|
n
|
n | integer |
Anzahl der Optionen, die für die Chatvervollständigung für jede Eingabenachricht generiert werden sollen. |
|
|
seed
|
seed | integer |
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben |
|
|
logprobs
|
logprobs | boolean |
Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Bei TRUE werden die Protokollwahrscheinlichkeiten jedes Ausgabetokens zurückgegeben, das in der |
|
|
top_logprobs
|
top_logprobs | integer |
Eine ganze Zahl zwischen 0 und 5, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit.
|
|
|
type
|
type | string |
Einstellung zum |
Gibt zurück
Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten
Verwenden von Erweiterungen zum Erstellen eines Abschlusses für Chatnachrichten
Parameter
| Name | Schlüssel | Erforderlich | Typ | Beschreibung |
|---|---|---|---|---|
|
Bereitstellungs-ID des bereitgestellten Modells
|
deployment-id | True | string |
Bereitstellungs-ID des bereitgestellten Modells |
|
Bestätigen der Bereitstellungs-ID des bereitgestellten Modells
|
deploymentId | True | string |
Bestätigen der Bereitstellungs-ID des bereitgestellten Modells |
|
API-Version
|
api-version | True | string |
API-Version |
|
index
|
index | integer |
Der Index der Nachricht in der Unterhaltung. |
|
|
role
|
role | True | string |
Die Rolle des Autors dieser Nachricht |
|
recipient
|
recipient | string |
Der Empfänger der Nachricht im Format des <Namespaces>.<Operation>. Vorhanden, wenn und nur, wenn der Empfänger Tool ist. |
|
|
Inhalt
|
content | True | string |
Der Inhalt der Nachricht |
|
end_turn
|
end_turn | boolean |
Gibt an, ob die Nachricht die Drehung beendet. |
|
|
type
|
type | True | string |
Der Datenquellentyp. |
|
parameters
|
parameters | object |
Die Parameter, die zur Laufzeit für die Datenquelle verwendet werden sollen. |
|
|
Temperatur
|
temperature | number |
Die zu verwendende Temperatur für die Stichprobenentnahme zwischen 0 und 2. Durch höhere Werte wie 0,8 wird die Ausgabe zufälliger, während sie durch niedrigere Werte wie 0,2 fokussierter und deterministischer wird.
Wir empfehlen im Allgemeinen, dies oder |
|
|
top_p
|
top_p | number |
Eine Alternative zur Stichprobenentnahme mit Temperatur, die sogenannte Kernstichprobenentnahme (Nucleus Sampling), bei dem das Modell die Ergebnisse der Token mit der Wahrscheinlichkeitsmasse „top_p“ berücksichtigt. Daher bedeutet 0,1, dass nur die Token berücksichtigt werden, die die oberen 10 % der Wahrscheinlichkeitsmasse umfassen.
Wir empfehlen im Allgemeinen, dies oder |
|
|
Datenstrom
|
stream | boolean |
Wenn diese Einstellung festgelegt ist, werden teilweise Nachrichtendeltas gesendet, wie in ChatGPT. Token werden als vom Server gesendete Ereignisse (reine Daten) übermittelt, sobald sie verfügbar sind. Der Stream wird durch eine |
|
|
stop
|
stop | array of string |
Array-Mindestgröße von 1 und maximal 4 |
|
|
maximale_Anzahl_von_Tokens
|
max_tokens | integer |
Die maximale Anzahl von Token, die für die generierte Antwort zulässig sind. Standardmäßig ist die Anzahl der vom Modell zurückgegebenen Token (4096 - Äußerungstoken). |
|
|
presence_penalty
|
presence_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token, je nachdem, ob sie bereits im Text vorkommen, und erhöhen so die Wahrscheinlichkeit, dass das Modell über neue Themen spricht. |
|
|
frequency_penalty
|
frequency_penalty | number |
Zahl zwischen -2,0 und 2,0. Positive Werte benachteiligen neue Token auf der Grundlage ihrer bisherigen Häufigkeit im Text, wodurch die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wortwörtlich wiederholt, sinkt. |
|
|
logit_bias
|
logit_bias | object |
Ändern Sie die Wahrscheinlichkeit, dass bestimmte Token in der Vervollständigung vorkommen. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugehörigen Verzerrungswert von -100 bis 100 zuordnet. Mathematisch gesehen wird die Verzerrung zu den Logits addiert, die das Modell vor der Stichprobenentnahme generiert. Die genaue Auswirkung ist von Modell zu Modell unterschiedlich, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer ausschließlichen Auswahl des betreffenden Tokens führen. |
|
|
user
|
user | string |
Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der Azure OpenAI helfen kann, Missbrauch zu überwachen und zu erkennen. |
Gibt zurück
Die Antwort der Erweiterungschat-Fertigstellungen.
Definitionen
Nachricht
Eine Chatnachricht.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
index
|
index | integer |
Der Index der Nachricht in der Unterhaltung. |
|
role
|
role | string |
Die Rolle des Autors dieser Nachricht |
|
recipient
|
recipient | string |
Der Empfänger der Nachricht im Format des <Namespaces>.<Operation>. Vorhanden, wenn und nur, wenn der Empfänger Tool ist. |
|
Inhalt
|
content | string |
Der Inhalt der Nachricht |
|
end_turn
|
end_turn | boolean |
Gibt an, ob die Nachricht die Drehung beendet. |
ExtensionsChatCompletionsResponse
Die Antwort der Erweiterungschat-Fertigstellungen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string | |
|
Objekt
|
object | string | |
|
erstellt
|
created | integer | |
|
Modell
|
model | string | |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults |
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. |
|
prompt_tokens
|
usage.prompt_tokens | integer | |
|
completion_tokens
|
usage.completion_tokens | integer | |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer | |
|
choices
|
choices | array of ExtensionsChatCompletionChoice |
ExtensionsChatCompletionChoice
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
index
|
index | integer | |
|
Beendigungsgrund
|
finish_reason | string | |
|
Content-Filtern-Egebnisse
|
content_filter_results | contentFilterResults |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. |
|
messages
|
messages | array of Message |
Die Liste der vom Dienst zurückgegebenen Nachrichten. |
contentFilterResult
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
severity
|
severity | string | |
|
gefiltert
|
filtered | boolean |
contentFilterResults
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
sexual
|
sexual | contentFilterResult | |
|
Gewalt
|
violence | contentFilterResult | |
|
hate
|
hate | contentFilterResult | |
|
Selbstverletzung
|
self_harm | contentFilterResult | |
|
Fehler
|
error | errorBase |
PromptFilterErgebnis
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
Content-Filtern-Egebnisse
|
content_filter_results | contentFilterResults |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. |
promptFilterResults
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Gegenstände
|
promptFilterResult |
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung |
errorBase
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Code
|
code | string | |
|
message
|
message | string |
errorBase_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Code
|
code | string | |
|
message
|
message | string |
contentFilterSeverityResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
gefiltert
|
filtered | boolean | |
|
severity
|
severity | string |
contentFilterDetectedResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
gefiltert
|
filtered | boolean | |
|
erkannt
|
detected | boolean |
contentFilterDetectedWithCitationResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
gefiltert
|
filtered | boolean | |
|
erkannt
|
detected | boolean | |
|
URL
|
citation.URL | string | |
|
license
|
citation.license | string |
contentFilterIdResult_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string | |
|
gefiltert
|
filtered | boolean |
contentFilterPromptResults_2024Feb15Preview
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
Gewalt
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
Selbstverletzung
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
Profanität
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
Fehler
|
error | errorBase_2024Feb15Preview | |
|
jailbreak
|
jailbreak | contentFilterDetectedResult_2024Feb15Preview |
contentFilterChoiceResults_2024Feb15Preview
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
sexual
|
sexual | contentFilterSeverityResult_2024Feb15Preview | |
|
Gewalt
|
violence | contentFilterSeverityResult_2024Feb15Preview | |
|
hate
|
hate | contentFilterSeverityResult_2024Feb15Preview | |
|
Selbstverletzung
|
self_harm | contentFilterSeverityResult_2024Feb15Preview | |
|
Profanität
|
profanity | contentFilterDetectedResult_2024Feb15Preview | |
|
custom_blocklists
|
custom_blocklists | array of contentFilterIdResult_2024Feb15Preview | |
|
Fehler
|
error | errorBase_2024Feb15Preview | |
|
protected_material_text
|
protected_material_text | contentFilterDetectedResult_2024Feb15Preview | |
|
protected_material_code
|
protected_material_code | contentFilterDetectedWithCitationResult_2024Feb15Preview |
promptFilterResult_2024Feb15Preview
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
prompt_index
|
prompt_index | integer | |
|
Content-Filtern-Egebnisse
|
content_filter_results | contentFilterPromptResults_2024Feb15Preview |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Jailbreak-Inhalten und Profanität, sofern diese erkannt wurden, sowie dazu, ob der Inhalt gefiltert wurde. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. |
promptFilterResults_2024Feb15Preview
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Gegenstände
|
promptFilterResult_2024Feb15Preview |
Ergebnisse der Inhaltsfilterung für einen einzelnen Prompt in der Anforderung |
azureChatExtensionsMessageContext_2024Feb15Preview
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung aufgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Zitationen
|
citations | array of citation_2024Feb15Preview |
Das Ergebnis des Datenquellenabrufs, das zum Generieren der Assistentennachricht in der Antwort verwendet wird. |
|
Absicht
|
intent | string |
Die erkannte Absicht aus dem Chatverlauf, die für die Übergabe an den nächsten Durchlauf verwendet wird, um den Kontext zu übernehmen. |
citation_2024Feb15Preview
Zitatinformationen für eine Antwortnachricht für Chatvervollständigungen.
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Inhalt
|
content | string |
Der Inhalt des Zitats. |
|
title
|
title | string |
Der Titel des Zitats. |
|
URL
|
url | string |
Die URL des Zitats. |
|
Dateipfad
|
filepath | string |
Der Dateipfad des Zitats. |
|
chunk_id
|
chunk_id | string |
Die Segment-ID des Zitats. |
createChatCompletionResponse_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
id
|
id | string |
Ein eindeutiger Bezeichner für die Chatvervollständigung |
|
Objekt
|
object | chatCompletionResponseObject_2024Feb15Preview |
Der Objekttyp. |
|
erstellt
|
created | integer |
Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts, zu dem die Chatvervollständigung erstellt wurde |
|
Modell
|
model | string |
Das Modell, das für die Chatvervollständigung verwendet wird |
|
usage
|
usage | completionUsage_2024Feb15Preview |
Nutzungsstatistiken für die Vervollständigungsanforderung |
|
Systemfingerabdruck
|
system_fingerprint | string |
Kann zusammen mit dem Anforderungsparameter |
|
prompt_filter_results
|
prompt_filter_results | promptFilterResults_2024Feb15Preview |
Ergebnisse der Inhaltsfilterung für null oder mehr Prompts in der Anforderung. Bei einer Streaminganforderung können Ergebnisse für unterschiedliche Prompts zu unterschiedlichen Zeiten oder in unterschiedlicher Reihenfolge eingehen. |
|
choices
|
choices | array of object | |
|
index
|
choices.index | integer | |
|
Beendigungsgrund
|
choices.finish_reason | string | |
|
message
|
choices.message | chatCompletionResponseMessage_2024Feb15Preview |
Eine vom Modell generierte Chatvervollständigungsnachricht |
|
Content-Filtern-Egebnisse
|
choices.content_filter_results | contentFilterChoiceResults_2024Feb15Preview |
Informationen zur Inhaltsfilterkategorie („hate“, „sexual“, „violence“, „self_harm“), sofern sie erkannt wurde, und zum Schweregrad („very_low“, „low“, „medium“, „high-scale“, um die Intensität und Risikostufe schädlicher Inhalte zu bestimmen) sowie dazu, ob der Inhalt gefiltert wurde. Informationen zu Text und Obszönitäten von Dritten, zur Erkennung und dazu, ob eine Filterung erfolgt ist. Und Informationen zur Kundenblockliste, wenn sie gefiltert wurde, und deren ID. |
|
logprobs
|
choices.logprobs | chatCompletionChoiceLogProbs_2024Feb15Preview |
Logarithmierte Wahrscheinlichkeit für die Auswahl |
chatCompletionChoiceLogProbs_2024Feb15Preview
Logarithmierte Wahrscheinlichkeit für die Auswahl
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Inhalt
|
content | array of chatCompletionTokenLogprob_2024Feb15Preview |
Eine Liste der Nachrichteninhaltstoken mit Informationen zur logarithmierten Wahrscheinlichkeit |
chatCompletionTokenLogprob_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
token
|
token | string |
Das Token. |
|
logprob
|
logprob | number |
Die logarithmierte Wahrscheinlichkeit dieses Tokens |
|
Bytes
|
bytes | array of integer |
Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann |
|
top_logprobs
|
top_logprobs | array of object |
Liste mit den wahrscheinlichsten Token und ihre logarithmierte Wahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen werden möglicherweise weniger zurückgegeben als für |
|
token
|
top_logprobs.token | string |
Das Token. |
|
logprob
|
top_logprobs.logprob | number |
Die logarithmierte Wahrscheinlichkeit dieses Tokens |
|
Bytes
|
top_logprobs.bytes | array of integer |
Eine Liste mit ganzen Zahlen, die die UTF-8-Bytedarstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden und ihre Bytedarstellungen kombiniert werden müssen, um die korrekte Textdarstellung zu generieren. Kann |
chatCompletionResponseMessage_2024Feb15Preview
Eine vom Modell generierte Chatvervollständigungsnachricht
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
role
|
role | chatCompletionResponseMessageRole_2024Feb15Preview |
Die Rolle des Antwortnachrichterstellers |
|
Inhalt
|
content | string |
Der Inhalt der Nachricht. |
|
context
|
context | azureChatExtensionsMessageContext_2024Feb15Preview |
Eine Darstellung der zusätzlichen Kontextinformationen, die verfügbar sind, wenn Azure OpenAI-Chaterweiterungen an der Generierung einer entsprechenden Chatabschlussantwort beteiligt sind. Diese Kontextinformationen werden nur bei Verwendung einer Azure OpenAI-Anforderung aufgefüllt, die für die Verwendung einer übereinstimmenden Erweiterung konfiguriert ist. |
chatCompletionResponseMessageRole_2024Feb15Preview
chatCompletionResponseObject_2024Feb15Preview
completionUsage_2024Feb15Preview
Nutzungsstatistiken für die Vervollständigungsanforderung
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
prompt_tokens
|
prompt_tokens | integer |
Anzahl der Token im Prompt. |
|
completion_tokens
|
completion_tokens | integer |
Anzahl der Token in der generierten Vervollständigung |
|
Gesamtanzahl Tokens
|
total_tokens | integer |
Die Gesamtzahl der in der Anforderung verwendeten Token (Prompt + Vervollständigung). |
getSingleEmbeddingsResponse_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Details des Antwortobjekttyps |
|
Modell
|
model | string |
Den Modellnamen |
|
embedding
|
embedding | array of number |
Ein Array von Floats, die die berechneten Einbettungen für die angegebenen Eingaben darstellen |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Die Anzahl der token, die in der Eingabe verwendet werden |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer |
Die verwendeten Gesamttoken |
getMultipleEmbeddingsResponse_2024Feb15Preview
| Name | Pfad | Typ | Beschreibung |
|---|---|---|---|
|
Objekt
|
object | string |
Details des Antwortobjekttyps |
|
Modell
|
model | string |
Den Modellnamen |
|
embeddings
|
embeddings | array of array |
Ein Array mit Float-Arrays, die die berechneten Einbettungen der Eingabezeichenfolgenauflistung darstellen |
|
items
|
embeddings | array of number | |
|
prompt_tokens
|
usage.prompt_tokens | integer |
Die Anzahl der token, die in der Eingabe verwendet werden |
|
Gesamtanzahl Tokens
|
usage.total_tokens | integer |
Die verwendeten Gesamttoken |