Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.
Datenebenen-Ableitung
Der Rest des Artikels behandelt unsere neue Version der v1-Vorschau-API-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.
Wenn Sie nach Dokumentationen zur neuesten Version der GA-API suchen, lesen Sie die neueste GA-Datenebenen-Ableitungs-API.
Create speech
POST {endpoint}/openai/v1/audio/speech?api-version=preview
Generiert Text-zu-Sprache-Audio aus dem Eingabetext.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite Microsoft Foundry Models API-Version, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. | Yes | |
| instructions | string | Steuern Sie die Stimme Ihrer generierten Audiodaten mit zusätzlichen Anweisungen. Funktioniert nicht mit tts-1 oder tts-1-hd. |
No | |
| model | string | Das Modell, das für diese Text-zu-Sprache-Anforderung verwendet werden soll. | Yes | |
| response_format | object | Die unterstützten Audioausgabeformate für Text-zu-Sprache. | No | |
| speed | number | Die Geschwindigkeit der Spracherkennung für generierte Audiodaten. Werte sind im Bereich von 0,25 bis 4,0 gültig, wobei 1,0 die Standardwerte und höhere Werte, die schnelleren Spracherkennungen entsprechen. | No | 1 |
| stream_format | enum | Das Format, in das die Audiodaten gestreamt werden sollen. Unterstützte Formate sind sse und audio.
sse wird für tts-1 oder tts-1-hd.Mögliche Werte: sse, audio |
No | |
| voice | object | Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Synthetisiert Audio aus dem bereitgestellten Text.
POST {endpoint}/openai/v1/audio/speech?api-version=preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3",
"model": "tts-1"
}
Antworten: Statuscode: 200
{
"body": "101010101"
}
Create transcription
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
Transkribiert Audio in die Eingabesprache.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | No | ||
| └─ prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. | No | 300 |
| └─ silence_duration_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. | No | 200 |
| └─ threshold | number | Vertraulichkeitsschwellenwert (0,0 bis 1,0) für die Sprachaktivitätserkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. | No | 0.5 |
| └─ type | enum | Muss so festgelegt sein, dass server_vad manuelle Blöcke mithilfe der serverseitigen VAD aktiviert werden.Mögliche Werte: server_vad |
No | |
| file | string | Yes | ||
| filename | string | Der optionale Dateiname oder der beschreibende Bezeichner, der den Audiodaten zugeordnet werden soll. | No | |
| include[] | array | Zusätzliche Informationen, die in die Transkriptionsantwort aufgenommen werden sollen.
logprobs gibt die Protokollwahrscheinlichkeiten der Token in der Antwort zurück, um das Vertrauen des Modells in die Transkription zu verstehen.
logprobs funktioniert nur mit response_format auf json und nur mit den Modellen gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribeund gpt-4o-mini-transcribe-2025-12-15. |
No | |
| language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| model | string | Das Modell, das für diese Transkriptionsanforderung verwendet werden soll. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | object | No | ||
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Hinweis: Streaming wird für das whisper-1 Modell nicht unterstützt und wird ignoriert. |
No | False |
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen.
response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranscriptionResponse | |
| text/plain | string |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Antworten: Statuscode: 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Create translation
POST {endpoint}/openai/v1/audio/translations?api-version=preview
Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Yes | ||
| filename | string | Optionaler Dateiname oder beschreibender Bezeichner, der den Audiodaten zugeordnet werden soll | No | |
| model | string | Das Modell, das für diese Übersetzungsanforderung verwendet werden soll. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. | No | |
| response_format | object | No | ||
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranslationResponse | |
| text/plain | string |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.
POST {endpoint}/openai/v1/audio/translations?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Antworten: Statuscode: 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Chatabschluss erstellen
POST {endpoint}/openai/v1/chat/completions?api-version=preview
Erstellt einen Chatabschluss.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. |
No | |
| └─ format | enum | Gibt das Ausgabeaudioformat an. Muss einer von , , , ,wav oder mp3. flacopuspcm16Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16 |
No | |
| └─ voice | object | No | ||
| data_sources | array | Die Datenquellen, die für das Feature "On Your Data" verwendet werden sollen, ausschließlich für Azure OpenAI. | No | |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. | No | 0 |
| function_call | enum | Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.Mögliche Werte: none, auto |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. | No | None |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. |
No | False |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die im Chatabschluss generiert werden können. Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird. Dieser Wert ist jetzt zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel. |
No | |
| messages | array | Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Abhängig vom verwendeten Modell werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, z. B. Text, Bilder und Audio. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| modalities | object | Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:["text", "audio"] |
No | |
| model | string | Der Modellbereitstellungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. | Yes | |
| n | integer | Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. |
No | 1 |
| parallel_tool_calls | object | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | |
| prediction | object | Basisdarstellung der vorhergesagten Ausgabe eines Modells. | No | |
| └─ type | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. | No | 0 |
| reasoning_effort | object |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| response_format | object | No | ||
| └─ type | enum | Mögliche Werte: text, , json_objectjson_schema |
No | |
| seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | object | Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.Bis zu 4 Sequenzen, bei denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. | No | False |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. | No | False |
| stream_options | object | Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. |
No | |
| └─ include_usage | boolean | Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array.Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert.
HINWEIS: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
| tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. | No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| user_security_context | AzureUserSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureCreateChatCompletionResponse | |
| text/event-stream | AzureCreateChatCompletionStreamResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.
POST {endpoint}/openai/v1/chat/completions?api-version=preview
{
"model": "gpt-4o-mini",
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Antworten: Statuscode: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Create embedding
POST {endpoint}/openai/v1/embeddings?api-version=preview
Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| encoding_format | enum | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64.Mögliche Werte: float, base64 |
No | |
| input | Zeichenfolge oder Matrix | Yes | ||
| model | string | Das Modell, das für die Einbettungsanforderung verwendet werden soll. | Yes | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.
POST {endpoint}/openai/v1/embeddings?api-version=preview
{
"model": "text-embedding-ada-002",
"input": [
"this is a test"
]
}
Antworten: Statuscode: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196,
-0.020365695,
-0.009631885,
-0.007647093,
0.0033837722,
-0.026764825,
-0.010501476,
0.020219658,
0.024640633,
-0.0066912062,
-0.036456455,
-0.0040923897,
-0.013966565,
0.017816665,
0.005366905,
0.022835068,
0.0103488,
-0.0010811808,
-0.028942121,
0.0074280356,
-0.017033368,
0.0074877786,
0.021640211,
0.002499245,
0.013316032,
0.0021524043,
0.010129742,
0.0054731146,
0.03143805,
0.014856071,
0.0023366117,
-0.0008243692,
0.022781964,
0.003038591,
-0.017617522,
0.0013309394,
0.0022154662,
0.00097414135,
0.012041516,
-0.027906578,
-0.023817508,
0.013302756,
-0.003003741,
-0.006890349,
0.0016744611
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
List evals
GET {endpoint}/openai/v1/evals?api-version=preview
Listet Auswertungen für ein Projekt auf.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| after | query | No | string | Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der Evals, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge für Evals nach Zeitstempel. Wird asc für aufsteigende Reihenfolge oder desc für absteigende Reihenfolge verwendet. |
| order_by | query | No | string Mögliche Werte: created_at, updated_at |
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Wird für die Erstellungszeit oder created_at für die uhrzeit der letzten Aktualisierung verwendetupdated_at. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createeval
POST {endpoint}/openai/v1/evals?api-version=preview
Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.
Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source_config | object | Yes | ||
| └─ type | OpenAI.EvalDataSourceConfigType | No | ||
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name der Auswertung. | No | |
| statusCode | enum | Mögliche Werte: 201 |
Yes | |
| testing_criteria | array | Eine Liste der Benoter für alle Auswertungen in dieser Gruppe. Grader können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z {{item.variable_name}}. B. . Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den sample Namespace (ie, {{sample.output_text}}). |
Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Get eval
GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Rufen Sie eine Auswertung anhand ihrer ID ab. Ruft eine Auswertung anhand der ID ab.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Update eval
POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Auswertung.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | OpenAI.MetadataPropertyForRequest | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete eval
DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Löschen sie eine angegebene Auswertung.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen von eval-Ausführungen
GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Dient zum Abrufen einer Liste von Läufen für eine angegebene Auswertung.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string | |
| after | query | No | string | |
| limit | query | No | integer | |
| order | query | No | string Mögliche Werte: asc, desc |
|
| status | query | No | string Mögliche Werte: queued, , in_progresscompleted, , canceledfailed |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Erstellen einer eval-Ausführung
POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Erstellen Sie einen neuen Auswertungslauf, und beginnen Sie mit dem Benotungsprozess.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name der Ausführung. | No |
Responses
Statuscode: 201
Beschreibung: Die Anforderung ist erfolgreich und eine neue Ressource wurde als Ergebnis erstellt.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen einer eval-Ausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Dient zum Abrufen einer bestimmten Auswertung, die von der ID ausgeführt wird.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abbrechen der Ausführung der Auswertung
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Abbrechen einer bestimmten Auswertung, die von der ID ausgeführt wird.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Deleteevalrun
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Löschen Sie eine bestimmte Auswertung, die von ihrer ID ausgeführt wird.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen von Ausgabeelementen für die eval-Ausführung
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview
Dient zum Abrufen einer Liste der Ausgabeelemente für einen angegebenen Auswertungslauf.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string | |
| after | query | No | string | |
| limit | query | No | integer | |
| status | query | No | string Mögliche Werte: fail, pass |
|
| order | query | No | string Mögliche Werte: asc, desc |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen des Ausgabeelements "eval run"
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview
Ruft ein bestimmtes Ausgabeelement aus einer Auswertung ab, die von seiner ID ausgeführt wird.
HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| aoai-evals | header | Yes | string Mögliche Werte: preview |
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature. Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden. |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string | |
| output_item_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Create file
POST {endpoint}/openai/v1/files?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Yes | ||
| └─ anchor | AzureFileExpiryAnchor | No | ||
| └─ seconds | integer | No | ||
| file | string | Yes | ||
| purpose | enum | Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: - assistants: Wird in der Assistenten-API verwendet - batch: Wird in der Batch-API verwendet - fine-tune: Verwendet für Feinabstimmung - evals: Verwendet für eval-DatasetsMögliche Werte: assistants, , batch, fine-tuneevals |
Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
POST {endpoint}/openai/v1/files?api-version=preview
List files
GET {endpoint}/openai/v1/files?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| purpose | query | No | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureListFilesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retrieve file
GET {endpoint}/openai/v1/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| file_id | path | Yes | string | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete file
DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| file_id | path | Yes | string | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Download file
GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| file_id | path | Yes | string | Die ID der Datei, die für diese Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Rungrader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview
Führen Sie einen Grader aus.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Yes | |
| └─ calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | No | |
| └─ evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| └─ input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | No | |
| └─ model | string | Das Modell, das für die Auswertung verwendet werden soll. | No | |
| └─ name | string | Der Name des Graders. | No | |
| └─ operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
No | |
| └─ range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| └─ reference | string | Der Text, der abgestuft wird. | No | |
| └─ sampling_params | Die Samplingparameter für das Modell. | No | ||
| └─ source | string | Der Quellcode des Python-Skripts. | No | |
| └─ type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
No | |
| item | Das Datasetelement, das dem Grader bereitgestellt wird. Dies wird verwendet, um den item Namespace aufzufüllen. |
No | ||
| model_sample | string | Das zu bewertende Modellbeispiel. Dieser Wert wird verwendet, um den sample Namespace aufzufüllen. Die output_json Variable wird aufgefüllt, wenn das Modellbeispiel eine gültige JSON-Zeichenfolge ist. |
Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Validate grader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview
Überprüfen sie einen Grader.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Yes | |
| └─ calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | No | |
| └─ evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| └─ input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | No | |
| └─ model | string | Das Modell, das für die Auswertung verwendet werden soll. | No | |
| └─ name | string | Der Name des Graders. | No | |
| └─ operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
No | |
| └─ range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| └─ reference | string | Der Text, der abgestuft wird. | No | |
| └─ sampling_params | Die Samplingparameter für das Modell. | No | ||
| └─ source | string | Der Quellcode des Python-Skripts. | No | |
| └─ type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Erstellen eines Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Erstellt einen Feinabstimmungsauftrag, der mit dem Erstellen eines neuen Modells aus einem bestimmten Dataset beginnt.
Die Antwort enthält Details des enqueuierten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | object | Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert ist nun zugunsten des methodParameters veraltet und sollte unter dem method Parameter übergeben werden. |
No | |
| └─ batch_size | enum | Mögliche Werte: auto |
No | |
| └─ learning_rate_multiplier | enum | Mögliche Werte: auto |
No | |
| └─ n_epochs | enum | Mögliche Werte: auto |
No | |
| integrations | array | Eine Liste der Integrationen, die Für Ihren Feinabstimmungsauftrag aktiviert werden sollen. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| method | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | No | |
| model | Zeichenfolge (siehe gültige Modelle unten) | Der Name des Modells, das optimiert werden soll. | Yes | |
| seed | integer | Der Seed steuert die Reproduzierbarkeit des Auftrags. Das Übergeben desselben Ausgangs- und Auftragsparameters sollte die gleichen Ergebnisse erzielen, kann sich aber in seltenen Fällen unterscheiden. Wenn kein Seed angegeben ist, wird ein Seed für Sie generiert. |
No | |
| suffix | string | Eine Zeichenfolge von bis zu 64 Zeichen, die ihrem fein abgestimmten Modellnamen hinzugefügt werden. Beispielsweise würde ein suffix "custom-model-name" einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| training_file | string | Die ID einer hochgeladenen Datei, die Schulungsdaten enthält. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tunehochladen.Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet. |
Yes | |
| validation_file | string | Die ID einer hochgeladenen Datei, die Überprüfungsdaten enthält. Wenn Sie diese Datei angeben, werden die Daten verwendet, um während der Feinabstimmung regelmäßig Validierungsmetriken zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden. Die gleichen Daten sollten nicht sowohl in Train- als auch in Validierungsdateien vorhanden sein. Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tunehochladen. |
No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Auflisten von paginierten Feinabstimmungsaufträgen
GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Auflisten der Feinabstimmungsaufträge Ihrer Organisation
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| after | query | No | string | Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsanforderung. |
| limit | query | No | integer | Anzahl der abzurufenden Feinabstimmungsaufträge. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen eines Feinabstimmungsauftrags
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview
Erhalten Sie Informationen zu einem Feinabstimmungsauftrag.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | path | Yes | string | Die ID des Feinabstimmungsauftrags. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abbrechen des Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview
Sofortiges Abbrechen eines Feinabstimmungsauftrags.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | path | Yes | string | Die ID des abzubrechenden Feinabstimmungsauftrags. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Auflisten von Feinabstimmungsauftragsprüfpunkten
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview
Auflisten der Prüfpunkte für einen Feinabstimmungsauftrag.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | path | Yes | string | Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen. |
| after | query | No | string | Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung. |
| limit | query | No | integer | Anzahl der abzurufenden Prüfpunkte. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Auflisten von Feinabstimmungsereignissen
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview
Abrufen von Statusupdates für einen Feinabstimmungsauftrag.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | path | Yes | string | Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen. |
| after | query | No | string | Bezeichner für das letzte Ereignis aus der vorherigen Paginierungsanforderung. |
| limit | query | No | integer | Anzahl der abzurufenden Ereignisse. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Feinabstimmungsauftrag anhalten
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview
Anhalten eines Feinabstimmungsauftrags.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | path | Yes | string | Die ID des zu unterbrechenden Feinabstimmungsauftrags. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Fortsetzen des Feinabstimmungsauftrags
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview
Fortsetzen eines angehaltenen Feinabstimmungsauftrags.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| fine_tuning_job_id | path | Yes | string | Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Erstellen einer Bildbearbeitung
POST {endpoint}/openai/v1/images/edits?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.Mögliche Werte: transparent, , opaqueauto |
No | |
| image | Zeichenfolge oder Matrix | Yes | ||
| mask | string | No | ||
| model | string | Die Modellbereitstellung, die für den Bildbearbeitungsvorgang verwendet werden soll. | Yes | |
| n | integer | Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. | No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. |
No | 100 |
| output_format | enum | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.Der Standardwert ist png.Mögliche Werte: png, , jpegwebp |
No | |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen für dall-e-2und 32000 Zeichen für gpt-image-1-Serienmodelle. |
Yes | |
| quality | enum | Die Qualität des Bilds, das generiert wird.
high, medium und low werden nur für Modelle der gpt-image-1Serie unterstützt.
dall-e-2 unterstützt standard nur Qualität. Standardwert ist .autoMögliche Werte: standard, , lowmedium, , highauto |
No | |
| response_format | enum | Das Format, in dem die generierten Bilder zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird nur für dall-e-2"-series"-Modelle unterstützt, da gpt-image-1base64-codierte Bilder immer zurückgegeben werden.Mögliche Werte: url, b64_json |
No | |
| size | enum | Die Größe der generierten Bilder. Muss eines von 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für gpt-image-1-Serienmodelle und eines von 256x256, 512x512oder 1024x1024 für dall-e-2.Mögliche Werte: 256x256, , 512x512, 1024x10241536x1024, , , 1024x1536auto |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createimage
POST {endpoint}/openai/v1/images/generations?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.Mögliche Werte: transparent, , opaqueauto |
No | |
| model | string | Die Modellbereitstellung, die für die Imagegenerierung verwendet werden soll. | Yes | |
| moderation | enum | Steuern Sie die Inhaltsmoderationsebene für Bilder, die von gpt-image-1-Serienmodellen generiert werden. Muss entweder low für weniger restriktive Filterung oder auto (Standardwert) sein.Mögliche Werte: low, auto |
No | |
| n | integer | Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Nur für dall-e-3, n=1 wird unterstützt. |
No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. |
No | 100 |
| output_format | enum | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.Mögliche Werte: png, , jpegwebp |
No | |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle, 1000 Zeichen für dall-e-2 und 4000 Zeichen für dall-e-3. |
Yes | |
| quality | enum | Die Qualität des Bilds, das generiert wird. - auto (Standardwert) wählt automatisch die beste Qualität für das angegebene Modell aus.- high, medium und low werden für Modelle der gpt-image-1Serie unterstützt.- hd und standard werden für dall-e-3.- standard ist die einzige Option für dall-e-2.Mögliche Werte: standard, , hd, lowmedium, , , highauto |
No | |
| response_format | enum | Das Format, in dem generierte Bilder mit dall-e-2 und dall-e-3 zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.Mögliche Werte: url, b64_json |
No | |
| size | enum | Die Größe der generierten Bilder. Muss eine von 1024x1024, (Querformat), 1536x1024 (Hochformat) oder 1024x1536 (Standardwert) für auto-Serienmodelle, eines von gpt-image-1, 256x256, oder 512x512 für 1024x1024, und eine von dall-e-2, 1024x1024oder 1792x1024 für 1024x1792dall-e-3 .Mögliche Werte: auto, , 1024x1024, 1536x10241024x1536, 256x256, , 512x512, 1792x10241024x1792 |
No | |
| style | enum | Die Formatvorlage der generierten Bilder. Dieser Parameter wird nur für dall-e-3. Muss eine von vivid oder natural. Lebendig bewirkt, dass sich das Modell auf die Erzeugung hyper realer und dramatischer Bilder stützt. Natürlich erzeugt das Modell natürlichere, weniger hyper reale Bilder.Mögliche Werte: vivid, natural |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Erstellt Bilder mit einer Eingabeaufforderung.
POST {endpoint}/openai/v1/images/generations?api-version=preview
{
"model": "dall-e-3",
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Antworten: Statuscode: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
List models
GET {endpoint}/openai/v1/models?api-version=preview
Listet die derzeit verfügbaren Modelle auf und enthält grundlegende Informationen zu jedem Modell, z. B. besitzer und Verfügbarkeit.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retrieve model
GET {endpoint}/openai/v1/models/{model}?api-version=preview
Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und die Berechtigung.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| model | path | Yes | string | Die ID des Modells, das für diese Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Model |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Create response
POST {endpoint}/openai/v1/responses?api-version=preview
Erstellt eine Modellantwort.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| include | array | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist). |
No | |
| input | Zeichenfolge oder Matrix | No | ||
| instructions | string | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. | Yes | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| prompt | object | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ id | string | Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. | No | |
| └─ version | string | Optionale Version der Eingabeaufforderungsvorlage. | No | |
| reasoning | object |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| └─ generate_summary | enum |
Veraltet: Verwenden Sie summary stattdessen.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| └─ summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| store | boolean | Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. | No | True |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. | No | False |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. You kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. die Dateisuche. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse | |
| text/event-stream | OpenAI.ResponseStreamEvent |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Erstellen einer Modellantwort
POST {endpoint}/openai/v1/responses?api-version=preview
Get response
GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Ruft eine Modellantwort mit der angegebenen ID ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| response_id | path | Yes | string | |
| include[] | query | No | array |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete response
DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Löscht eine Antwort nach ID.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| response_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Listeneingabeelemente
GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview
Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| response_id | path | Yes | string | |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Auflisten von Vektorspeichern
GET {endpoint}/openai/v1/vector_stores?api-version=preview
Gibt eine Liste von Vektorspeichern zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Erstellen eines Vektorspeichers
POST {endpoint}/openai/v1/vector_stores?api-version=preview
Erstellt einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400. |
No | |
| └─ static | OpenAI.StaticChunkingStrategy | No | ||
| └─ type | enum | Immer static.Mögliche Werte: static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Beispieldatei nicht gefunden: ./examples/vector_stores.json
Vektorspeicher abrufen
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Ruft einen Vektorspeicher ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des abzurufenden Vektorspeichers. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Ändern des Vektorspeichers
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Ändert einen Vektorspeicher.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des zu ändernden Vektorspeichers. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| └─ anchor | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Mögliche Werte: last_active_at |
No | |
| └─ days | integer | Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Vektorspeicher löschen
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Löschen eines Vektorspeichers.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des zu löschenden Vektorspeichers. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Erstellen eines Vektorspeicherdateibatches
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview
Erstellen Sie einen Vektorspeicherdateibatch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen eines Vektorspeicherdateibatches
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview
Ruft einen Vektorspeicherdateibatch ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des abgerufenen Dateibatches. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abbrechen des Vektorspeicherdateibatches
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview
Abbrechen eines Vektorspeicherdateibatches. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des zu abbrechenden Dateibatches. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Auflisten von Dateien im Vektorspeicherbatch
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview
Gibt eine Liste der Vektorspeicherdateien in einem Batch zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem der Dateibatch gehört. |
| batch_id | path | Yes | string | Die ID des Dateibatches, zu dem die Dateien gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Auflisten von Vektorspeicherdateien
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Gibt eine Liste von Vektorspeicherdateien zurück.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Dateien gehören. |
| limit | query | No | integer | Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20. |
| order | query | No | string Mögliche Werte: asc, desc |
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte.
asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge. |
| after | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen. |
| before | query | No | string | Ein Cursor für die Verwendung in der Paginierung.
before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen. |
| filter | query | No | Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Erstellen einer Vektorspeicherdatei
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, für den eine Datei erstellt werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_id | string | Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Abrufen einer Vektorspeicherdatei
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Ruft eine Vektorspeicherdatei ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der abgerufenen Datei. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Aktualisieren von Vektorspeicherdateiattributen
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | |
| file_id | path | Yes | string |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Vektorspeicherdatei löschen
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den Löschdateiendpunkt.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| vector_store_id | path | Yes | string | Die ID des Vektorspeichers, zu dem die Datei gehört. |
| file_id | path | Yes | string | Die ID der zu löschenden Datei. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Videogenerierungsaufträge – Erstellen
POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Erstellt einen neuen Auftrag zur Videogenerierung.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| height | integer | Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes | |
| model | string | Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. | Yes | |
| n_seconds | integer | Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. | No | 5 |
| n_variants | integer | Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. | No | 1 |
| prompt | string | Die Aufforderung für diesen Auftrag zur Videogenerierung. | Yes | |
| width | integer | Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| height | integer | Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes | |
| inpaint_items | array | Optionale Inpaintingelemente für diesen Videogenerierungsauftrag. | No | |
| model | string | Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. | Yes | |
| n_seconds | integer | Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. | No | 5 |
| n_variants | integer | Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. | No | 1 |
| prompt | string | Die Aufforderung für diesen Auftrag zur Videogenerierung. | Yes | |
| width | integer | Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Beispieldatei nicht gefunden: ./examples/create_video_generation_job_simple.json
Videogenerierungsaufträge – Liste
GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Listet Videogenerierungsaufträge auf.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| before | query | No | string | |
| after | query | No | string | |
| limit | query | Yes | integer | |
| statuses | query | No | array |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJobList |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Beispieldatei nicht gefunden: ./examples/get_video_generation_job_list.json
Videogenerierungsaufträge – Abrufen
GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Ruft die Eigenschaften eines Auftrags zur Videogenerierung ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| job-id | path | Yes | string | Die ID des Videogenerierungsauftrags, der für die Azure OpenAI-Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Beispieldatei nicht gefunden: ./examples/get_video_generation_job.json
Aufträge zur Videogenerierung – Löschen
DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Löscht einen Auftrag zur Videogenerierung.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| job-id | path | Yes | string | Die ID des Videogenerierungsauftrags, der für die Azure OpenAI-Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 204
Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Videogenerationen – Abrufen
GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview
Ruft eine Videogenerierung nach ID ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| generation-id | path | Yes | string | Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGeneration |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Beispieldatei nicht gefunden: ./examples/get_video_generation.json
Videogenerationen – Miniaturansicht abrufen
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview
Ruft eine Miniaturansicht des generierten Videoinhalts ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| generation-id | path | Yes | string | Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll. |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| image/jpg | string |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Videogenerationen – Abrufen von Videoinhalten
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Ruft den generierten Videoinhalt ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| generation-id | path | Yes | string | Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll. |
| quality | query | No |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
| Content-Type | Type | Description |
|---|---|---|
| video/mp4 | string |
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Videogenerationen – Nur Videoinhaltsheader abrufen
HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Ruft Kopfzeilen für den generierten Videoinhalt ab.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.v1 wenn nicht anders angegeben. |
|
| generation-id | path | Yes | string | Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll. |
| quality | query | No |
Request Header
Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeUmfang: https://ai.azure.com/.default |
| api-key | True | string | Bereitstellen Azure OpenAI-API-Schlüssels hier |
Responses
Statuscode: 200
Beschreibung: Die Anforderung ist erfolgreich.
Statuscode: Standard
Beschreibung: Eine unerwartete Fehlerantwort.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Components
AudioTaskLabel
Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.
| Property | Value |
|---|---|
| Description | Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. |
| Type | string |
| Values | transcribetranslate |
AudioTranslationSegment
Erweiterte Informationen zu einem einzelnen Segment übersetzter Audiodaten. Segmente stellen in der Regel ungefähr 5-10 Sekunden Sprache dar. Segmentgrenzen treten in der Regel zwischen Wörtern, aber nicht unbedingt Sätzen auf.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. | Yes | |
| compression_ratio | number | Das Komprimierungsverhältnis dieses Audiosegments. | Yes | |
| end | number | Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. | Yes | |
| id | integer | Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. | Yes | |
| no_speech_prob | number | Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. | Yes | |
| seek | integer | Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist. Suchpositionen werden als Hundertstel Sekunden ausgedrückt. Das Modell kann mehrere Segmente von einer einzelnen Suchposition verarbeiten, während die Suchposition nie später als der Anfang des Segments dargestellt wird, kann der Anfang des Segments einen erheblich späteren Zeitpunkt als die zugeordnete Suchposition des Segments darstellen. |
Yes | |
| start | number | Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. | Yes | |
| temperature | number | Die diesem Audiosegment zugeordnete Temperaturbewertung. | Yes | |
| text | string | Der übersetzte Text, der Teil dieses Audiosegments war. | Yes | |
| tokens | array | Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. | Yes |
AzureAIFoundryModelsApiVersion
| Property | Value |
|---|---|
| Type | string |
| Values | v1preview |
AzureAudioTranscriptionResponse
Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text transkribiert hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Transkriptionsinformationen zu erzeugen. | No | |
| language | string | Die gesprochene Sprache, die in den transkribierten Audiodaten erkannt wurde. Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt. |
No | |
| segments | array | Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. | No | |
| task | object | Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. | No | |
| text | string | Der transkribierte Text für die bereitgestellten Audiodaten. | Yes | |
| words | array | Eine Sammlung von Informationen über die Anzeigedauer jedes verarbeiteten Worts. | No |
AzureAudioTranslationResponse
Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text übersetzt hat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Übersetzungsinformationen zu erzeugen. | No | |
| language | string | Die gesprochene Sprache, die in den übersetzten Audiodaten erkannt wurde. Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt. |
No | |
| segments | array | Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. | No | |
| task | object | Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. | No | |
| text | string | Der übersetzte Text für die bereitgestellten Audiodaten. | Yes |
AzureChatCompletionResponseMessage
Die Komponente des erweiterten Antwortmodells für Chatabschlussantwortnachrichten im Azure OpenAI-Dienst. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der ausgeführten Generierung von Abruferweiterungen verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Anmerkungen für die Nachricht, falls zutreffend, wie bei Verwendung des Websuchtools. | No | |
| audio | object | Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. | No | |
| └─ data | string | Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format. | No | |
| └─ expires_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Fall, dass diese Audioantwort nicht mehr auf dem Server zur Verwendung in Multi-Turn-Unterhaltungen zugänglich ist. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Audioantwort. | No | |
| └─ transcript | string | Transkription der vom Modell generierten Audiodaten. | No | |
| content | string | Der Inhalt der Nachricht. | Yes | |
| context | object | Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wurde, die vom Azure OpenAI-Dienst bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data". | No | |
| └─ all_retrieved_documents | object | Zusammenfassungsinformationen zu Dokumenten, die vom Datenempfangsvorgang abgerufen werden. | No | |
| └─ chunk_id | string | Die Block-ID für das Zitat. | No | |
| └─ content | string | Der Inhalt des Zitats. | No | |
| └─ data_source_index | integer | Der Index der Datenquelle, die für den Abruf verwendet wird. | No | |
| └─ filepath | string | Der Dateipfad für das Zitat. | No | |
| └─ filter_reason | enum | Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde. Mögliche Werte: score, rerank |
No | |
| └─ original_search_score | number | Die ursprüngliche Suchbewertung für den Abruf. | No | |
| └─ rerank_score | number | Der Rerank-Score für den Abruf. | No | |
| └─ search_queries | array | Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. | No | |
| └─ title | string | Der Titel für das Zitat. | No | |
| └─ url | string | Die URL des Zitats. | No | |
| └─ citations | array | Die Zitate, die vom Datenabruf erzeugt werden. | No | |
| └─ intent | string | Die erkannte Absicht aus dem Chatverlauf, der verwendet wird, um den Unterhaltungskontext zwischen Interaktionen zu tragen | No | |
| function_call | object | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| reasoning_content | string | Eine Azure spezifische Erweiterungseigenschaft, die generierten Grundinhalt aus unterstützten Modellen enthält. | No | |
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | Yes | |
| role | enum | Die Rolle des Autors dieser Nachricht. Mögliche Werte: assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. | No |
AzureChatCompletionStreamResponseDelta
Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht im Azure OpenAI-Dienst. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der ausgeführten Generierung von Abruferweiterungen verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | No | ||
| └─ data | string | No | ||
| └─ expires_at | integer | No | ||
| └─ id | string | No | ||
| └─ transcript | string | No | ||
| content | string | Der Inhalt der Blocknachricht. | No | |
| context | object | Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wurde, die vom Azure OpenAI-Dienst bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data". | No | |
| └─ all_retrieved_documents | object | Zusammenfassungsinformationen zu Dokumenten, die vom Datenempfangsvorgang abgerufen werden. | No | |
| └─ chunk_id | string | Die Block-ID für das Zitat. | No | |
| └─ content | string | Der Inhalt des Zitats. | No | |
| └─ data_source_index | integer | Der Index der Datenquelle, die für den Abruf verwendet wird. | No | |
| └─ filepath | string | Der Dateipfad für das Zitat. | No | |
| └─ filter_reason | enum | Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde. Mögliche Werte: score, rerank |
No | |
| └─ original_search_score | number | Die ursprüngliche Suchbewertung für den Abruf. | No | |
| └─ rerank_score | number | Der Rerank-Score für den Abruf. | No | |
| └─ search_queries | array | Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. | No | |
| └─ title | string | Der Titel für das Zitat. | No | |
| └─ url | string | Die URL des Zitats. | No | |
| └─ citations | array | Die Zitate, die vom Datenabruf erzeugt werden. | No | |
| └─ intent | string | Die erkannte Absicht aus dem Chatverlauf, der verwendet wird, um den Unterhaltungskontext zwischen Interaktionen zu tragen | No | |
| function_call | object | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| reasoning_content | string | Eine Azure spezifische Erweiterungseigenschaft, die generierten Grundinhalt aus unterstützten Modellen enthält. | No | |
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | No | |
| role | object | Die Rolle des Autors einer Nachricht | No | |
| tool_calls | array | No |
AzureChatDataSource
Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chatdatenquelle. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.
Diskriminator für AzureChatDataSource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
azure_search |
AzureSearchChatDataSource |
azure_cosmos_db |
AzureCosmosDBChatDataSource |
elasticsearch |
ElasticsearchChatDataSource |
pinecone |
PineconeChatDataSource |
mongo_db |
MongoDBChatDataSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | object | Yes |
AzureChatDataSourceAccessTokenAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Yes | ||
| type | enum | Mögliche Werte: access_token |
Yes |
AzureChatDataSourceApiKeyAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Yes | ||
| type | enum | Mögliche Werte: api_key |
Yes |
AzureChatDataSourceAuthenticationOptions
Diskriminator für AzureChatDataSourceAuthenticationOptions
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
system_assigned_managed_identity |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions |
access_token |
AzureChatDataSourceAccessTokenAuthenticationOptions |
connection_string |
AzureChatDataSourceConnectionStringAuthenticationOptions |
key_and_key_id |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions |
username_and_password |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | AzureChatDataSourceAuthenticationOptionsType | Yes |
AzureChatDataSourceAuthenticationOptionsType
| Property | Value |
|---|---|
| Type | string |
| Values | api_keyusername_and_passwordconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identity |
AzureChatDataSourceConnectionStringAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Yes | ||
| type | enum | Mögliche Werte: connection_string |
Yes |
AzureChatDataSourceDeploymentNameVectorizationSource
Stellt eine Vektorisierungsquelle dar, die interne Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. Im Gegensatz zur endpunktbasierten Vektorisierungsquelle muss eine bereitstellungsnamebasierte Vektorisierungsquelle Teil derselben Azure OpenAI-Ressource sein, kann aber auch in privaten Netzwerken verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Die Bereitstellung des Einbettungsmodells, die für die Vektorisierung verwendet werden soll. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. | Yes | |
| dimensions | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Wird nur in "text-embedding-3" und späteren Modellen unterstützt. |
No | |
| type | enum | Der Typbezeichner, immer "deployment_name" für diesen Vektorisierungsquelltyp. Mögliche Werte: deployment_name |
Yes |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Yes | ||
| type | enum | Mögliche Werte: encoded_api_key |
Yes |
AzureChatDataSourceEndpointVectorizationSource
Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | object | Yes | ||
| └─ access_token | string | No | ||
| └─ key | string | No | ||
| └─ type | enum | Mögliche Werte: access_token |
No | |
| dimensions | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Wird nur in "text-embedding-3" und späteren Modellen unterstützt. |
No | |
| endpoint | string | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Er sollte im Format von: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter der API-Version ist nicht zulässig. |
Yes | |
| type | enum | Der Typbezeichner, immer "Endpunkt" für diesen Vektorisierungsquelltyp. Mögliche Werte: endpoint |
Yes |
AzureChatDataSourceIntegratedVectorizationSource
Stellt eine integrierte Vektorisierungsquelle dar, die in der unterstützenden Suchressource definiert ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typbezeichner, immer "integriert" für diesen Vektorisierungsquelltyp. Mögliche Werte: integrated |
Yes |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Yes | ||
| key_id | string | Yes | ||
| type | enum | Mögliche Werte: key_and_key_id |
Yes |
AzureChatDataSourceModelIdVectorizationSource
Stellt eine Vektorisierungsquelle dar, die Dienstaufrufe basierend auf einer Suchdienstmodell-ID vorgibt. Dieser Quelltyp wird derzeit nur von Elasticsearch unterstützt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Die Einbettungsmodell-Build-ID, die für die Vektorisierung verwendet werden soll. | Yes | |
| type | enum | Der Typbezeichner, immer "model_id" für diesen Vektorisierungsquelltyp. Mögliche Werte: model_id |
Yes |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: system_assigned_managed_identity |
Yes |
AzureChatDataSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchpineconemongo_db |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | Yes | ||
| type | enum | Mögliche Werte: user_assigned_managed_identity |
Yes |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | Yes | ||
| type | enum | Mögliche Werte: username_and_password |
Yes | |
| username | string | Yes |
AzureChatDataSourceVectorizationSource
Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann.
Diskriminator für AzureChatDataSourceVectorizationSource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
deployment_name |
AzureChatDataSourceDeploymentNameVectorizationSource |
integrated |
AzureChatDataSourceIntegratedVectorizationSource |
model_id |
AzureChatDataSourceModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | object | Yes |
AzureChatDataSourceVectorizationSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | endpointdeployment_namemodel_idintegrated |
AzureChatMessageContext
Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wurde, die vom Azure OpenAI-Dienst bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data".
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | object | Zusammenfassungsinformationen zu Dokumenten, die vom Datenempfangsvorgang abgerufen werden. | No | |
| └─ chunk_id | string | Die Block-ID für das Zitat. | No | |
| └─ content | string | Der Inhalt des Zitats. | No | |
| └─ data_source_index | integer | Der Index der Datenquelle, die für den Abruf verwendet wird. | No | |
| └─ filepath | string | Der Dateipfad für das Zitat. | No | |
| └─ filter_reason | enum | Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde. Mögliche Werte: score, rerank |
No | |
| └─ original_search_score | number | Die ursprüngliche Suchbewertung für den Abruf. | No | |
| └─ rerank_score | number | Der Rerank-Score für den Abruf. | No | |
| └─ search_queries | array | Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. | No | |
| └─ title | string | Der Titel für das Zitat. | No | |
| └─ url | string | Die URL des Zitats. | No | |
| citations | array | Die Zitate, die vom Datenabruf erzeugt werden. | No | |
| intent | string | Die erkannte Absicht aus dem Chatverlauf, der verwendet wird, um den Unterhaltungskontext zwischen Interaktionen zu tragen | No |
AzureContentFilterBlocklistResult
Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | No | |
| filtered | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | Yes |
AzureContentFilterCompletionTextSpan
Eine Darstellung einer Spanne von Abschlusstext, wie von Azure OpenAI-Inhaltsfilterergebnissen verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld ist immer gleich completion_start_offset für leere Spannen. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. | Yes | |
| completion_start_offset | integer | Offset des UTF32-Codepunkts, der die Spanne beginnt. | Yes |
AzureContentFilterCompletionTextSpanDetectionResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Detaillierte Informationen zu den erkannten Abschlusstextabschnitten. | Yes | |
| detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Yes | |
| filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Yes |
AzureContentFilterCustomTopicResult
Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | No | |
| filtered | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | Yes |
AzureContentFilterDetectionResult
Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | Yes | |
| filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | Yes |
AzureContentFilterImagePromptResults
Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | object | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | No | |
| └─ details | array | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | No | |
| └─ filtered | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | No | |
| custom_topics | object | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | No | |
| └─ details | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | No | |
| └─ filtered | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | No | |
| jailbreak | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | Yes | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| profanity | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No |
AzureContentFilterImageResponseResults
Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| self_harm | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| sexual | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| violence | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No |
AzureContentFilterResultForChoice
Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | object | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | No | |
| └─ details | array | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | No | |
| └─ filtered | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | No | |
| custom_topics | object | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | No | |
| └─ details | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | No | |
| └─ filtered | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | No | |
| error | object | Wenn vorhanden, details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abgeschlossen hat. | No | |
| └─ code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | No | |
| └─ message | string | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | No | |
| hate | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| profanity | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| protected_material_code | object | Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. | No | |
| └─ citation | object | Falls verfügbar, beschreiben die Zitatdetails die zugeordnete Lizenz und den zugehörigen Standort. | No | |
| └─ URL | string | Die mit der Lizenz verknüpfte URL. | No | |
| └─ license | string | Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| protected_material_text | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| self_harm | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| sexual | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| violence | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No |
AzureContentFilterResultForPrompt
Ein Inhaltsfilterergebnis, das einem einzelnen Eingabeaufforderungselement in einem generativen KI-System zugeordnet ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | object | Die Inhaltsfilterkategoriedetails für das Ergebnis. | No | |
| └─ custom_blocklists | object | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. | No | |
| └─ details | array | Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. | No | |
| └─ filtered | boolean | Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. | No | |
| └─ custom_topics | object | Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen. | No | |
| └─ details | array | Die Paare einzelner Themen-IDs und ob sie erkannt werden. | No | |
| └─ filtered | boolean | Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. | No | |
| └─ error | object | Wenn vorhanden, details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abgeschlossen hat. | No | |
| └─ code | integer | Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. | No | |
| └─ message | string | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | No | |
| └─ hate | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| └─ indirect_attack | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ jailbreak | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ profanity | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. | No | |
| └─ detected | boolean | Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. | No | |
| └─ filtered | boolean | Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ self_harm | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| └─ sexual | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| └─ violence | object | Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. | No | |
| └─ filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | No | |
| └─ severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
No | |
| prompt_index | integer | Der Index der Eingabeaufforderung, die den zugehörigen Inhaltsfilterergebniskategorien zugeordnet ist. | No |
AzureContentFilterSeverityResult
Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. | Yes | |
| severity | enum | Der schweregrad des Inhalts. Mögliche Werte: safe, , low, mediumhigh |
Yes |
AzureCosmosDBChatDataSource
Stellt eine Datenquellenkonfiguration dar, die eine Azure CosmosDB-Ressource verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Die Parameterinformationen zum Steuern der Verwendung der Azure CosmosDB-Datenquelle. | Yes | |
| └─ allow_partial_result | boolean | Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| └─ authentication | AzureChatDataSourceConnectionStringAuthenticationOptions | No | ||
| └─ container_name | string | No | ||
| └─ database_name | string | No | ||
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. | No | |
| └─ fields_mapping | object | No | ||
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | No | |
| └─ include_contexts | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
No | ['citations', 'intent'] |
| └─ index_name | string | No | ||
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig führt das System eine automatische Bestimmung durch. |
No | |
| └─ strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort. |
No | |
| └─ top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. | No | |
| type | enum | Der diskriminierte Typbezeichner, der immer "azure_cosmos_db" ist. Mögliche Werte: azure_cosmos_db |
Yes |
AzureCreateChatCompletionRequest
Das erweiterte Anforderungsmodell für Chatabschlusse mit dem Azure OpenAI-Dienst. Dadurch wird die Möglichkeit hinzugefügt, Datenquellen für das Feature "On Your Data" bereitzustellen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. |
No | |
| └─ format | enum | Gibt das Ausgabeaudioformat an. Muss eine von , , , , wavoder mp3. flacopuspcm16Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16 |
No | |
| └─ voice | object | No | ||
| data_sources | array | Die Datenquellen, die für das Feature "On Your Data" verwendet werden sollen, ausschließlich für Azure OpenAI. | No | |
| frequency_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. | No | 0 |
| function_call | enum | Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.Mögliche Werte: none, auto |
No | |
| functions | array | Veraltet zugunsten von tools.Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann. |
No | |
| logit_bias | object | Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. |
No | None |
| logprobs | boolean | Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. |
No | False |
| max_completion_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. | No | |
| max_tokens | integer | Die maximale Anzahl von Token, die im Chatabschluss generiert werden können. Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird. Dieser Wert ist jetzt zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel. |
No | |
| messages | array | Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Abhängig vom verwendeten Modell werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, z. B. Text, Bilder und Audio. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| modalities | object | Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung: ["text"]Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:["text", "audio"] |
No | |
| model | string | Der Modellbereitstellungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. | Yes | |
| n | integer | Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. |
No | 1 |
| parallel_tool_calls | object | Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. | No | |
| prediction | object | Basisdarstellung der vorhergesagten Ausgabe eines Modells. | No | |
| └─ type | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. | No | 0 |
| reasoning_effort | object |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| response_format | object | No | ||
| └─ type | enum | Mögliche Werte: text, , json_objectjson_schema |
No | |
| seed | integer | Dieses Feature befindet sich in der Betaversion. Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen. |
No | |
| stop | object | Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.Bis zu 4 Sequenzen, bei denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz. |
No | |
| store | boolean | Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in der Modelldestillation oder evalsierten Produkten gespeichert werden soll. | No | False |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. | No | False |
| stream_options | object | Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. |
No | |
| └─ include_usage | boolean | Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array.Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert.
HINWEIS: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält. |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind. |
No | |
| tools | array | Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. | No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| user_security_context | AzureUserSecurityContext | Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. | No |
AzureCreateChatCompletionResponse
Das erweiterte Antwortmodell für den Abschluss von Chats auf oberster Ebene für den Azure OpenAI-Dienst. Dieses Modell fügt Anmerkungen zum Verantwortlichen KI-Inhaltsfilter für die Eingabeaufforderung hinzu.This model adds Responsible AI content filter annotations for prompt input.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Yes | ||
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. | Yes | |
| id | string | Ein eindeutiger Bezeichner für den Chatabschluss. | Yes | |
| model | string | Das Modell, das für den Chatabschluss verwendet wird. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completionist.Mögliche Werte: chat.completion |
Yes | |
| prompt_filter_results | array | Die Anmerkungen zum Verantwortlichen KI-Inhaltsfilter, die mit Aufforderungseingaben in Chatabschlussen verknüpft sind. | No | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
No | |
| usage | OpenAI.CompletionUsage | Nutzungsstatistiken für die Abschlussanforderung. | No |
AzureCreateChatCompletionStreamResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist. Kann auch für den letzten Block leer sein, wenn Sie festlegen stream_options: {"include_usage": true}. |
Yes | |
| content_filter_results | AzureContentFilterResultForChoice | Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. | No | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. | Yes | |
| delta | AzureChatCompletionStreamResponseDelta | Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht im Azure OpenAI-Dienst. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der ausgeführten Generierung von Abruferweiterungen verwendet werden. |
No | |
| id | string | Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. | Yes | |
| model | string | Das Modell, das den Abschluss generiert. | Yes | |
| object | enum | Der Objekttyp, der immer chat.completion.chunkist.Mögliche Werte: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird. Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können. |
No | |
| usage | object | Nutzungsstatistiken für die Abschlussanforderung. | No | |
| └─ completion_tokens | integer | Anzahl der Token im generierten Abschluss. | No | 0 |
| └─ completion_tokens_details | object | Aufschlüsselung der in einem Abschluss verwendeten Token. | No | |
| └─ accepted_prediction_tokens | integer | Bei Verwendung von "Vorhergesagte Ausgaben" gibt es die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. | No | 0 |
| └─ audio_tokens | integer | Vom Modell generierte Audioeingabetoken. | No | 0 |
| └─ reasoning_tokens | integer | Vom Modell generierte Token zur Begründung. | No | 0 |
| └─ rejected_prediction_tokens | integer | Bei Verwendung von vorhergesagten Ausgaben wird die Anzahl der Token in der Vorhersage, die nicht im Abschluss angezeigt wurden. Wie aus Gründen versehene Token werden diese Token jedoch weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. | No | 0 |
| └─ prompt_tokens | integer | Anzahl der Token in der Eingabeaufforderung. | No | 0 |
| └─ prompt_tokens_details | object | Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. | No | |
| └─ audio_tokens | integer | Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. | No | 0 |
| └─ cached_tokens | integer | Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. | No | 0 |
| └─ total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). | No | 0 |
AzureCreateEmbeddingRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. |
No | |
| encoding_format | enum | Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64.Mögliche Werte: float, base64 |
No | |
| input | Zeichenfolge oder Matrix | Yes | ||
| model | string | Das Modell, das für die Einbettungsanforderung verwendet werden soll. | Yes | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
AzureCreateFileRequestMultiPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Yes | ||
| └─ anchor | AzureFileExpiryAnchor | No | ||
| └─ seconds | integer | No | ||
| file | string | Yes | ||
| purpose | enum | Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: - assistants: Wird in der Assistenten-API batchverwendet - : Wird in der Batch-API verwendet - fine-tune: Wird zur Feinabstimmung verwendet - evals: Wird für eval-Datasets verwendet. Mögliche Werte: assistants, , batch, fine-tuneevals |
Yes |
AzureCreateImageEditRequestMultiPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.Mögliche Werte: transparent, , opaqueauto |
No | |
| image | Zeichenfolge oder Matrix | Yes | ||
| mask | string | No | ||
| model | string | Die Modellbereitstellung, die für den Bildbearbeitungsvorgang verwendet werden soll. | Yes | |
| n | integer | Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. | No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. |
No | 100 |
| output_format | enum | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.Der Standardwert ist png.Mögliche Werte: png, , jpegwebp |
No | |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen für dall-e-2und 32000 Zeichen für gpt-image-1-Serienmodelle. |
Yes | |
| quality | enum | Die Qualität des Bilds, das generiert wird.
high, medium und low werden nur für Modelle der gpt-image-1Serie unterstützt.
dall-e-2 unterstützt standard nur Qualität. Standardwert ist .autoMögliche Werte: standard, , lowmedium, , highauto |
No | |
| response_format | enum | Das Format, in dem die generierten Bilder zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird nur für dall-e-2"-series"-Modelle unterstützt, da gpt-image-1base64-codierte Bilder immer zurückgegeben werden.Mögliche Werte: url, b64_json |
No | |
| size | enum | Die Größe der generierten Bilder. Muss eines von 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für gpt-image-1-Serienmodelle und eines von 256x256, 512x512oder 1024x1024 für dall-e-2.Mögliche Werte: 256x256, , 512x512, 1024x10241536x1024, , , 1024x1536auto |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
AzureCreateImageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder. Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.Mögliche Werte: transparent, , opaqueauto |
No | |
| model | string | Die Modellbereitstellung, die für die Imagegenerierung verwendet werden soll. | Yes | |
| moderation | enum | Steuern Sie die Inhaltsmoderationsebene für Bilder, die von gpt-image-1-Serienmodellen generiert werden. Muss entweder low für weniger restriktive Filterung oder auto (Standardwert) sein.Mögliche Werte: low, auto |
No | |
| n | integer | Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Nur für dall-e-3, n=1 wird unterstützt. |
No | 1 |
| output_compression | integer | Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. |
No | 100 |
| output_format | enum | Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.Mögliche Werte: png, , jpegwebp |
No | |
| prompt | string | Eine Textbeschreibung der gewünschten Bilder. | Yes | |
| quality | enum | Die Qualität des Bilds, das generiert wird. - auto (Standardwert) wählt automatisch die beste Qualität für das angegebene Modell aus.- high, medium und low werden für Modelle der gpt-image-1Serie unterstützt.- hd und standard werden für dall-e-3.- standard ist die einzige Option für dall-e-2.Mögliche Werte: standard, , hd, lowmedium, , , highauto |
No | |
| response_format | enum | Das Format, in dem generierte Bilder mit dall-e-2 und dall-e-3 zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.Mögliche Werte: url, b64_json |
No | |
| size | enum | Die Größe der generierten Bilder. Muss eine von 1024x1024, (Querformat), 1536x1024 (Hochformat) oder 1024x1536 (Standardwert) für auto-Serienmodelle, eines von gpt-image-1, 256x256, oder 512x512 für 1024x1024, und eine von dall-e-2, 1024x1024oder 1792x1024 für 1024x1792dall-e-3 .Mögliche Werte: auto, , 1024x1024, 1536x10241024x1536, 256x256, , 512x512, 1792x10241024x1792 |
No | |
| style | enum | Die Formatvorlage der generierten Bilder. Dieser Parameter wird nur für dall-e-3. Muss eine von vivid oder natural. Lebendig bewirkt, dass sich das Modell auf die Erzeugung hyper realer und dramatischer Bilder stützt. Natürlich erzeugt das Modell natürlichere, weniger hyper reale Bilder.Mögliche Werte: vivid, natural |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
AzureCreateResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| include | array | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist). |
No | |
| input | Zeichenfolge oder Matrix | No | ||
| instructions | string | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. | Yes | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| prompt | object | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ id | string | Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. | No | |
| └─ version | string | Optionale Version der Eingabeaufforderungsvorlage. | No | |
| reasoning | object |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| └─ generate_summary | enum |
Veraltet: Verwenden Sie summary stattdessen.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| └─ summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| store | boolean | Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. | No | True |
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. | No | False |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | 1 |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. die Dateisuche. - Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | 1 |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No |
AzureCreateSpeechRequestMultiPart
Eine Darstellung der Anforderungsoptionen, die das Verhalten eines Text-zu-Sprache-Vorgangs steuern.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. | Yes | |
| instructions | string | Steuern Sie die Stimme Ihrer generierten Audiodaten mit zusätzlichen Anweisungen. Funktioniert nicht mit tts-1 oder tts-1-hd. |
No | |
| model | string | Das Modell, das für diese Text-zu-Sprache-Anforderung verwendet werden soll. | Yes | |
| response_format | object | Die unterstützten Audioausgabeformate für Text-zu-Sprache. | No | |
| speed | number | Die Geschwindigkeit der Spracherkennung für generierte Audiodaten. Werte sind im Bereich von 0,25 bis 4,0 gültig, wobei 1,0 die Standardwerte und höhere Werte, die schnelleren Spracherkennungen entsprechen. | No | 1 |
| stream_format | enum | Das Format, in das die Audiodaten gestreamt werden sollen. Unterstützte Formate sind sse und audio.
sse wird für tts-1 oder tts-1-hd.Mögliche Werte: sse, audio |
No | |
| voice | object | Yes |
AzureCreateTranscriptionRequestMultiPart
Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | No | ||
| └─ prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. | No | 300 |
| └─ silence_duration_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | 200 |
| └─ threshold | number | Vertraulichkeitsschwellenwert (0,0 bis 1,0) für die Sprachaktivitätserkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. | No | 0.5 |
| └─ type | enum | Muss so festgelegt sein, dass server_vad manuelle Blöcke mithilfe der serverseitigen VAD aktiviert werden.Mögliche Werte: server_vad |
No | |
| file | string | Yes | ||
| filename | string | Der optionale Dateiname oder der beschreibende Bezeichner, der den Audiodaten zugeordnet werden soll. | No | |
| include[] | array | Zusätzliche Informationen, die in die Transkriptionsantwort aufgenommen werden sollen.logprobs gibt die Protokollwahrscheinlichkeiten der Token in der Antwort zurück, um das Vertrauen des Modells in die Transkription zu verstehen.logprobs funktioniert nur mit response_format auf json und nur mit den Modellen gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribeund gpt-4o-mini-transcribe-2025-12-15. |
No | |
| language | string | Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. |
No | |
| model | string | Das Modell, das für diese Transkriptionsanforderung verwendet werden soll. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. | No | |
| response_format | object | No | ||
| stream | boolean | Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Hinweis: Streaming wird für das whisper-1 Modell nicht unterstützt und wird ignoriert. |
No | False |
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
| timestamp_granularities[] | array | Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen.
response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. |
No | ['segment'] |
AzureCreateTranslationRequestMultiPart
Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Yes | ||
| filename | string | Optionaler Dateiname oder beschreibender Bezeichner, der den Audiodaten zugeordnet werden soll | No | |
| model | string | Das Modell, das für diese Übersetzungsanforderung verwendet werden soll. | No | |
| prompt | string | Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. | No | |
| response_format | object | No | ||
| temperature | number | Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. | No | 0 |
AzureErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | object | Die Fehlerdetails. | No | |
| └─ code | string | Der eindeutige, vom Computer generierte Bezeichner für den Fehler. | No | |
| └─ inner_error | No | |||
| └─ message | string | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | No | |
| └─ param | string | Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter | No | |
| └─ type | enum | Der Objekttyp, immer 'error'. Mögliche Werte: error |
No |
AzureEvalAPICompletionsSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | array | No |
AzureEvalAPIModelSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| max_tokens | integer | Die maximale Anzahl von Token in der generierten Ausgabe. | No | |
| reasoning_effort | enum | Steuert die Ebene der während der Generation angewendeten Gründe. Mögliche Werte: low, , mediumhigh |
No | |
| seed | integer | Ein Ausgangswert zum Initialisieren der Zufallsmuster während der Probenahme. | No | |
| temperature | number | Eine höhere Temperatur erhöht die Zufallszahlen in den Ausgaben. | No | |
| top_p | number | Eine Alternative zur Temperatur für kernsampling; 1.0 enthält alle Token. | No |
AzureEvalAPIResponseSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | array | No |
AzureFileExpiryAnchor
| Property | Value |
|---|---|
| Type | string |
| Values | created_at |
AzureFineTuneReinforcementMethod
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Yes | |
| └─ calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | No | |
| └─ evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | No | |
| └─ model | string | Das Modell, das für die Auswertung verwendet werden soll. | No | |
| └─ name | string | Der Name des Graders. | No | |
| └─ operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
No | |
| └─ range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| └─ reference | string | Der Text, der abgestuft wird. | No | |
| └─ sampling_params | Die Samplingparameter für das Modell. | No | ||
| └─ type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
No | |
| hyperparameters | OpenAI.FineTuneReinforcementHyperparameters | Die Hyperparameter, die für den Verstärkungs-Feinabstimmungsauftrag verwendet werden. | No | |
| response_format | object | No | ||
| └─ json_schema | object | JSON-Schema für das Antwortformat | No | |
| └─ type | enum | Typ des Antwortformats. Mögliche Werte: json_schema |
No |
AzureImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | Der base64-codierte JSON-Code des generierten Bilds. Standardwert für gpt-image-1-Serienmodelle und nur vorhanden, wenn response_formatb64_jsondall-e-2 für und .dall-e-3 |
No | |
| content_filter_results | AzureContentFilterImageResponseResults | Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs. | Yes | |
| prompt_filter_results | AzureContentFilterImagePromptResults | Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs. | Yes | |
| revised_prompt | string | Nur dall-e-3 die überarbeitete Eingabeaufforderung, die zum Generieren des Bilds verwendet wurde. |
No | |
| url | string | Bei Verwendung dall-e-2 oder dall-e-3, wenn die URL des generierten Bilds response_format festgelegt url ist (Standardwert). Wird für Modelle der gpt-image-1Serie nicht unterstützt. |
No |
AzureImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | NUR GPT-image-1: Der Hintergrundparameter, der für die Bildgenerierung verwendet wird. Entweder transparent oder opaque.Mögliche Werte: transparent, opaque |
No | |
| created | integer | Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Bilds. | Yes | |
| data | array | No | ||
| output_format | enum | Das Ausgabeformat der Bildgenerierung. Entweder png, , webpoder jpeg.Mögliche Werte: png, , webpjpeg |
No | |
| quality | enum | Die Qualität des generierten Bilds. Entweder low, , mediumoder high.Mögliche Werte: low, , mediumhigh |
No | |
| size | enum | Die Größe des generierten Bilds. Entweder 1024x1024, , 1024x1536oder 1536x1024.Mögliche Werte: 1024x1024, , 1024x15361536x1024 |
No | |
| usage | object | Nur bei gpt-image-1Modellen der Serie werden die Tokenverwendungsinformationen für die Bildgenerierung angegeben. |
No | |
| └─ input_tokens | integer | Die Anzahl der Token (Bilder und Text) in der Eingabeaufforderung. | No | |
| └─ input_tokens_details | object | Die Eingabetoken enthalten detaillierte Informationen für die Bildgenerierung. | No | |
| └─ image_tokens | integer | Die Anzahl der Bildtoken in der Eingabeaufforderung. | No | |
| └─ text_tokens | integer | Die Anzahl der Texttoken in der Eingabeaufforderung. | No | |
| └─ output_tokens | integer | Die Anzahl der Bildtoken im Ausgabebild. | No | |
| └─ total_tokens | integer | Die Gesamtzahl der Token (Bilder und Text), die für die Bildgenerierung verwendet werden. | No |
AzureListFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Mögliche Werte: list |
Yes |
AzureOpenAIFile
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | integer | Die Größe der Datei in Byte. | Yes | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Datei. | Yes | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Datei abläuft. | No | |
| filename | string | Der Name der Datei. | Yes | |
| id | string | Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Yes | |
| object | enum | Der Objekttyp, der immer fileist.Mögliche Werte: file |
Yes | |
| purpose | enum | Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, , assistants_output, batch, batch_outputfine-tuneund fine-tune-results.Mögliche Werte: assistants, , assistants_output, batchbatch_output, fine-tune, , , fine-tune-resultsevals |
Yes | |
| status | enum | Mögliche Werte: uploaded, , pending, runningprocessed, error, , , deletingdeleted |
Yes | |
| status_details | string | Deprecated. Ausführliche Informationen dazu, warum bei der Überprüfung einer Feinabstimmungsdatei ein Fehler aufgetreten ist, finden Sie im error Feld zu fine_tuning.job. |
No |
AzureOpenAIVideoGenerationErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der eindeutige, vom Computer generierte Bezeichner für den Fehler. | No | |
| inner_error | object | Falls zutreffend, ein Upstreamfehler, der diesen Fehler verursacht hat. | No | |
| └─ code | enum | Der code, der dem inneren Fehler zugeordnet ist. Mögliche Werte: ResponsibleAIPolicyViolation |
No | |
| └─ error_details | Die Ergebnisdetails des Inhaltsfilters, die dem inneren Fehler zugeordnet sind. | No | ||
| └─ revised_prompt | string | Falls zutreffend, wird die geänderte Aufforderung zur Generierung verwendet. | No | |
| message | string | Eine lesbare Nachricht, die dem Fehler zugeordnet ist. | No | |
| param | string | Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter | No | |
| type | string | Falls zutreffend, wird die dem Fehler zugeordnete Eingabezeilennummer zugeordnet. | No |
AzureResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Yes | |
| error | object | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Yes | |
| └─ code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | No | |
| └─ message | string | Eine lesbare Beschreibung des Fehlers. | No | |
| id | string | Eindeutiger Bezeichner für diese Antwort. | Yes | |
| incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | Yes | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| instructions | Zeichenfolge oder Matrix | Yes | ||
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| model | string | Das Modell, das zum Generieren dieser Antwort verwendet wird. | Yes | |
| object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
Yes | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
Yes | |
| output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Yes | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| prompt | object | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ id | string | Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. | No | |
| └─ version | string | Optionale Version der Eingabeaufforderungsvorlage. | No | |
| reasoning | object |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| └─ generate_summary | enum |
Veraltet: Verwenden Sie summary stattdessen.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| └─ summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Yes | |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Yes | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | Yes |
AzureSearchChatDataSource
Stellt eine Datenquellenkonfiguration dar, die eine Azure Suchressource verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Die Parameterinformationen zum Steuern der Verwendung der Azure Suchdatenquelle. | Yes | |
| └─ allow_partial_result | boolean | Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| └─ authentication | object | No | ||
| └─ access_token | string | No | ||
| └─ key | string | No | ||
| └─ managed_identity_resource_id | string | No | ||
| └─ type | enum | Mögliche Werte: access_token |
No | |
| └─ embedding_dependency | object | Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. | No | |
| └─ authentication | AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions | Der Authentifizierungsmechanismus, der mit der endpunktbasierten Vektorisierungsquelle verwendet werden soll. Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen. |
No | |
| └─ deployment_name | string | Die Bereitstellung des Einbettungsmodells, die für die Vektorisierung verwendet werden soll. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. | No | |
| └─ dimensions | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Wird nur in "text-embedding-3" und späteren Modellen unterstützt. |
No | |
| └─ endpoint | string | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Er sollte im Format von: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter der API-Version ist nicht zulässig. |
No | |
| └─ type | enum | Der Typbezeichner, immer "integriert" für diesen Vektorisierungsquelltyp. Mögliche Werte: integrated |
No | |
| └─ endpoint | string | Der absolute Endpunktpfad für die zu verwendende Azure Suchressource. | No | |
| └─ fields_mapping | object | Die Feldzuordnungen, die mit der Azure Suchressource verwendet werden sollen. | No | |
| └─ content_fields | array | Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. | No | |
| └─ content_fields_separator | string | Das Trennmuster, das Inhaltsfelder verwenden sollen. | No | |
| └─ filepath_field | string | Der Name des Indexfelds, das als Dateipfad verwendet werden soll. | No | |
| └─ image_vector_fields | array | Die Namen von Feldern, die Bildvektordaten darstellen. | No | |
| └─ title_field | string | Der Name des Indexfelds, das als Titel verwendet werden soll. | No | |
| └─ url_field | string | Der Name des Indexfelds, das als URL verwendet werden soll. | No | |
| └─ vector_fields | array | Die Namen von Feldern, die Vektordaten darstellen. | No | |
| └─ filter | string | Ein Filter, der auf die Suche angewendet werden soll. | No | |
| └─ in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | No | |
| └─ include_contexts | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
No | ['citations', 'intent'] |
| └─ index_name | string | Der Name des zu verwendenden Indexes, wie in der Azure Suchressource angegeben. | No | |
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig führt das System eine automatische Bestimmung durch. |
No | |
| └─ query_type | enum | Der Abfragetyp für die zu verwendende Azure Suchressource. Mögliche Werte: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid |
No | |
| └─ semantic_configuration | string | Zusätzliche semantische Konfiguration für die Abfrage. | No | |
| └─ strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort. |
No | |
| └─ top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. | No | |
| type | enum | Der diskriminierte Typbezeichner, der immer "azure_search" ist. Mögliche Werte: azure_search |
Yes |
AzureUserSecurityContext
Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Der Name der Anwendung. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. | No | |
| end_user_id | string | Dieser Bezeichner ist die Microsoft Entra ID (früher Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. | No | |
| end_user_tenant_id | string | Die Microsoft 365 Mandanten-ID, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung multitenant ist. | No | |
| source_ip | string | Erfasst die IP-Adresse des ursprünglichen Clients. | No |
ChatCompletionMessageToolCallsItem
Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.
Array von: OpenAI.ChatCompletionMessageToolCall
CreateVideoGenerationRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| height | integer | Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes | |
| model | string | Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. | Yes | |
| n_seconds | integer | Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. | No | 5 |
| n_variants | integer | Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. | No | 1 |
| prompt | string | Die Aufforderung für diesen Auftrag zur Videogenerierung. | Yes | |
| width | integer | Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes |
CreateVideoGenerationWithMediaRequestMultiPart
Die Eigenschaften einer Auftragsanforderung für die Videogenerierung mit Mediendateien.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| height | integer | Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes | |
| inpaint_items | array | Optionale Inpaintingelemente für diesen Videogenerierungsauftrag. | No | |
| model | string | Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. | Yes | |
| n_seconds | integer | Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. | No | 5 |
| n_variants | integer | Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. | No | 1 |
| prompt | string | Die Aufforderung für diesen Auftrag zur Videogenerierung. | Yes | |
| width | integer | Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. | Yes |
CropBounds
Die Zuschneidegrenzen für ein inpaintierendes Element. Dadurch wird der Bereich des Medienelements angegeben, der für die Inpaintierung verwendet werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bottom_fraction | number | Die untere Grenze des Zuschneidefelds, das als Bruch der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. | No | 1 |
| left_fraction | number | Die linke Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. | No | 0 |
| right_fraction | number | Die rechte Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. | No | 1 |
| top_fraction | number | Die obere Begrenzung des Zuschneidefelds, das als Bruchteil der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. | No | 0 |
ElasticsearchChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Die Parameterinformationen zum Steuern der Verwendung der Elasticsearch-Datenquelle. | Yes | |
| └─ allow_partial_result | boolean | Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| └─ authentication | object | No | ||
| └─ encoded_api_key | string | No | ||
| └─ key | string | No | ||
| └─ key_id | string | No | ||
| └─ type | enum | Mögliche Werte: encoded_api_key |
No | |
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. | No | |
| └─ endpoint | string | No | ||
| └─ fields_mapping | object | No | ||
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | No | |
| └─ include_contexts | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
No | ['citations', 'intent'] |
| └─ index_name | string | No | ||
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig führt das System eine automatische Bestimmung durch. |
No | |
| └─ query_type | enum | Mögliche Werte: simple, vector |
No | |
| └─ strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort. |
No | |
| └─ top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. | No | |
| type | enum | Der diskriminierte Typbezeichner, der immer "elasticsearch" ist. Mögliche Werte: elasticsearch |
Yes |
InpaintItem
Ein inpaintierendes Element für einen Auftrag zur Videogenerierung. Dadurch wird das Medienelement angegeben, das für die Inpaintierung in der Videogenerierung verwendet werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| crop_bounds | object | Die Zuschneidegrenzen für ein inpaintierendes Element. Dadurch wird der Bereich des Medienelements angegeben, der für die Inpaintierung verwendet werden soll. |
No | |
| └─ bottom_fraction | number | Die untere Grenze des Zuschneidefelds, das als Bruch der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. | No | 1 |
| └─ left_fraction | number | Die linke Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. | No | 0 |
| └─ right_fraction | number | Die rechte Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. | No | 1 |
| └─ top_fraction | number | Die obere Begrenzung des Zuschneidefelds, das als Bruchteil der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. | No | 0 |
| file_name | string | Der Dateiname des Medienelements. Er muss mit dem Dateinamen einer Dateianlage in dieser Anforderung übereinstimmen. | Yes | |
| frame_index | integer | Der Frameindex für dieses Medienelement. Dadurch wird der Startframe im resultierenden generierten Video für dieses inpainting-Element angegeben. | Yes | 0 |
| type | object | Der Typ des inpainting-Elements. | Yes |
JobStatus
Der Status eines Auftrags zur Videogenerierung.
| Property | Value |
|---|---|
| Description | Der Status eines Auftrags zur Videogenerierung. |
| Type | string |
| Values | preprocessingqueuedrunningprocessingcancelledsucceededfailed |
MediaItemType
Der Typ des inpainting-Elements.
| Property | Value |
|---|---|
| Description | Der Typ des inpainting-Elements. |
| Type | string |
| Values | image |
MongoDBChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Die Parameterinformationen zum Steuern der Verwendung der MongoDB-Datenquelle. | Yes | |
| └─ allow_partial_result | boolean | Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| └─ app_name | string | Der Name der MongoDB-Anwendung. | No | |
| └─ authentication | object | No | ||
| └─ password | string | No | ||
| └─ type | enum | Mögliche Werte: username_and_password |
No | |
| └─ username | string | No | ||
| └─ collection_name | string | Der Name der MongoDB-Auflistung. | No | |
| └─ database_name | string | Der Name der MongoDB-Datenbank. | No | |
| └─ embedding_dependency | object | Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. | No | |
| └─ authentication | AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions | Der Authentifizierungsmechanismus, der mit der endpunktbasierten Vektorisierungsquelle verwendet werden soll. Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen. |
No | |
| └─ deployment_name | string | Die Bereitstellung des Einbettungsmodells, die für die Vektorisierung verwendet werden soll. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. | No | |
| └─ dimensions | integer | Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen. Wird nur in "text-embedding-3" und späteren Modellen unterstützt. |
No | |
| └─ endpoint | string | Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen. Er sollte im Format von: https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Der Abfrageparameter der API-Version ist nicht zulässig. |
No | |
| └─ type | enum | Der Typbezeichner, immer "deployment_name" für diesen Vektorisierungsquelltyp. Mögliche Werte: deployment_name |
No | |
| └─ endpoint | string | Der Name des MongoDB-Clusterendpunkts. | No | |
| └─ fields_mapping | object | Feldzuordnungen, die auf daten angewendet werden, die von der MongoDB-Datenquelle verwendet werden. Beachten Sie, dass Für MongoDB Inhalts- und Vektorfeldzuordnungen erforderlich sind. |
No | |
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | No | |
| └─ include_contexts | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
No | ['citations', 'intent'] |
| └─ index_name | string | Der Name des MongoDB-Indexes. | No | |
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig führt das System eine automatische Bestimmung durch. |
No | |
| └─ strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort. |
No | |
| └─ top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. | No | |
| type | enum | Der diskriminierte Typbezeichner, der immer "mongo_db" ist. Mögliche Werte: mongo_db |
Yes |
OpenAI.Annotation
Diskriminator für OpenAI.Annotation
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
file_citation |
OpenAI.AnnotationFileCitation |
url_citation |
OpenAI.AnnotationUrlCitation |
file_path |
OpenAI.AnnotationFilePath |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.AnnotationType | Yes |
OpenAI.AnnotationFileCitation
Ein Zitat für eine Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Datei. | Yes | |
| filename | string | Der Dateiname der zitierten Datei. | Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. | Yes | |
| type | enum | Der Typ des Dateizitats. Immer file_citation.Mögliche Werte: file_citation |
Yes |
OpenAI.AnnotationFilePath
Ein Pfad zu einer Datei.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Die ID der Datei. | Yes | |
| index | integer | Der Index der Datei in der Liste der Dateien. | Yes | |
| type | enum | Der Typ des Dateipfads. Immer file_path.Mögliche Werte: file_path |
Yes |
OpenAI.AnnotationType
| Property | Value |
|---|---|
| Type | string |
| Values | file_citationurl_citationfile_pathcontainer_file_citation |
OpenAI.AnnotationUrlCitation
Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Der Index des letzten Zeichens des URL-Zitats in der Nachricht. | Yes | |
| start_index | integer | Der Index des ersten Zeichens des URL-Zitats in der Nachricht. | Yes | |
| title | string | Der Titel der Webressource. | Yes | |
| type | enum | Der Typ des URL-Zitats. Immer url_citation.Mögliche Werte: url_citation |
Yes | |
| url | string | Die URL der Webressource. | Yes |
OpenAI.ApproximateLocation
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| city | string | No | ||
| country | string | No | ||
| region | string | No | ||
| timezone | string | No | ||
| type | enum | Mögliche Werte: approximate |
Yes |
OpenAI.AudioResponseFormat
Das Format der Ausgabe in einer der folgenden Optionen: json, , text, , srt, verbose_jsonoder vtt. Für gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15. Das einzige unterstützte Format ist json.
| Property | Value |
|---|---|
| Description | Das Format der Ausgabe in einer der folgenden Optionen: json, , text, , srt, verbose_jsonoder vtt. Für gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15. Das einzige unterstützte Format ist json. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
OpenAI.AutoChunkingStrategyRequestParam
Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Immer auto.Mögliche Werte: auto |
Yes |
OpenAI.ChatCompletionFunctionCallOption
Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes |
OpenAI.ChatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. Eine Dokumentation zum Format finden Sie in der JSON-Schemareferenz . Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert. |
No |
OpenAI.ChatCompletionMessageAudioChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | No | ||
| expires_at | integer | No | ||
| id | string | No | ||
| transcript | string | No |
OpenAI.ChatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Die Funktion, die das Modell aufgerufen hat. | Yes | |
| └─ arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| id | string | Die ID des Toolaufrufs. | Yes | |
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
OpenAI.ChatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. | No | |
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| id | string | Die ID des Toolaufrufs. | No | |
| index | integer | Yes | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
No |
OpenAI.ChatCompletionNamedToolChoice
Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
OpenAI.ChatCompletionRequestAssistantMessage
Nachrichten, die vom Modell als Reaktion auf Benutzernachrichten gesendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Daten zu einer vorherigen Audioantwort aus dem Modell. | No | |
| └─ id | string | Eindeutiger Bezeichner für eine vorherige Audioantwort des Modells. | No | |
| content | Zeichenfolge oder Matrix | No | ||
| function_call | object | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| refusal | string | Die Ablehnungsnachricht des Assistenten. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall assistant.Mögliche Werte: assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. | No |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | Yes | |
| text | string | Der Textinhalt. | Yes | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: refusal |
Yes |
OpenAI.ChatCompletionRequestDeveloperMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren developer Nachrichten ersetzen Nachrichten die vorherigen system Nachrichten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Yes | ||
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall developer.Mögliche Werte: developer |
Yes |
OpenAI.ChatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Der Inhalt der Funktionsmeldung. | Yes | |
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall function.Mögliche Werte: function |
Yes |
OpenAI.ChatCompletionRequestMessage
Diskriminator für OpenAI.ChatCompletionRequestMessage
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
system |
OpenAI.ChatCompletionRequestSystemMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | No | ||
| role | object | Die Rolle des Autors einer Nachricht | Yes |
OpenAI.ChatCompletionRequestMessageContentPart
Diskriminator für OpenAI.ChatCompletionRequestMessageContentPart
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestMessageContentPartType | Yes |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Base64-codierte Audiodaten. | No | |
| └─ format | enum | Das Format der codierten Audiodaten. Unterstützt derzeit "wav" und "mp3". Mögliche Werte: wav, mp3 |
No | |
| type | enum | Der Typ des Inhaltsteils. Immer input_audio.Mögliche Werte: input_audio |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartFile
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | object | Yes | ||
| └─ file_data | string | Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet werden. | No | |
| └─ file_id | string | Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. | No | |
| └─ filename | string | Der Name der Datei, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet wird. | No | |
| type | enum | Der Typ des Inhaltsteils. Immer file.Mögliche Werte: file |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Gibt die Detailebene des Bilds an. Mögliche Werte: auto, , lowhigh |
No | |
| └─ url | string | Entweder eine URL des Bilds oder die base64-codierten Bilddaten. | No | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: image_url |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | Yes | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: refusal |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der Textinhalt. | Yes | |
| type | enum | Der Typ des Inhaltsteils. Mögliche Werte: text |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartType
| Property | Value |
|---|---|
| Type | string |
| Values | textfileinput_audioimage_urlrefusal |
OpenAI.ChatCompletionRequestSystemMessage
Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie developer mit o1-Modellen und neueren Nachrichten stattdessen Nachrichten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Yes | ||
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall system.Mögliche Werte: system |
Yes |
OpenAI.ChatCompletionRequestSystemMessageContentPart
References: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Yes | ||
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall tool.Mögliche Werte: tool |
Yes | |
| tool_call_id | string | Toolaufruf, auf den diese Nachricht reagiert. | Yes |
OpenAI.ChatCompletionRequestToolMessageContentPart
References: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Von einem Endbenutzer gesendete Nachrichten, die Eingabeaufforderungen oder zusätzliche Kontextinformationen enthalten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Yes | ||
| name | string | Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. | No | |
| role | enum | Die Rolle des Autors von Nachrichten in diesem Fall user.Mögliche Werte: user |
Yes |
OpenAI.ChatCompletionRequestUserMessageContentPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | object | Yes | ||
| └─ file_data | string | Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet werden. | No | |
| └─ file_id | string | Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. | No | |
| └─ filename | string | Der Name der Datei, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet wird. | No | |
| image_url | object | Yes | ||
| └─ detail | enum | Gibt die Detailebene des Bilds an. Mögliche Werte: auto, , lowhigh |
No | |
| └─ url | string | Entweder eine URL des Bilds oder die base64-codierten Bilddaten. | No | |
| input_audio | object | Yes | ||
| └─ data | string | Base64-codierte Audiodaten. | No | |
| └─ format | enum | Das Format der codierten Audiodaten. Unterstützt derzeit "wav" und "mp3". Mögliche Werte: wav, mp3 |
No | |
| text | string | Der Textinhalt. | Yes | |
| type | enum | Der Typ des Inhaltsteils. Immer file.Mögliche Werte: file |
Yes |
OpenAI.ChatCompletionRole
Die Rolle des Autors einer Nachricht
| Property | Value |
|---|---|
| Description | Die Rolle des Autors einer Nachricht |
| Type | string |
| Values | systemdeveloperuserassistanttoolfunction |
OpenAI.ChatCompletionStreamOptions
Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array.Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert.
HINWEIS: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält. |
No |
OpenAI.ChatCompletionStreamResponseDelta
Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | No | ||
| └─ data | string | No | ||
| └─ expires_at | integer | No | ||
| └─ id | string | No | ||
| └─ transcript | string | No | ||
| content | string | Der Inhalt der Blocknachricht. | No | |
| function_call | object | Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| refusal | string | Die vom Modell generierte Ablehnungsmeldung. | No | |
| role | object | Die Rolle des Autors einer Nachricht | No | |
| tool_calls | array | No |
OpenAI.ChatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. |
Yes | |
| logprob | number | Die Protokollwahrscheinlichkeit dieses Tokens, wenn es sich innerhalb der obersten 20 höchstwahrscheinlichen Token befindet. Andernfalls wird der Wert -9999.0 verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. |
Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. |
Yes |
OpenAI.ChatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | OpenAI.FunctionObject | Yes | ||
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
OpenAI.ChatCompletionToolChoiceOption
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.
none ist die Standardeinstellung, wenn keine Tools vorhanden sind.
auto ist die Standardeinstellung, wenn Tools vorhanden sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Der Name der funktion, die aufgerufen werden soll. | No | |
| type | enum | Der Typ des Tools. Derzeit wird nur function unterstützt.Mögliche Werte: function |
Yes |
OpenAI.ChatOutputPrediction
Basisdarstellung der vorhergesagten Ausgabe eines Modells.
Diskriminator für OpenAI.ChatOutputPrediction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
content |
OpenAI.ChatOutputPredictionContent |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ChatOutputPredictionType | Yes |
OpenAI.ChatOutputPredictionContent
Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Yes | ||
| type | enum | Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.Mögliche Werte: content |
Yes |
OpenAI.ChatOutputPredictionType
| Property | Value |
|---|---|
| Type | string |
| Values | content |
OpenAI.ChunkingStrategyRequestParam
Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet.
Diskriminator für OpenAI.ChunkingStrategyRequestParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Die Art der Blockierungsstrategie. Mögliche Werte: auto, static |
Yes |
OpenAI.ChunkingStrategyResponseParam
Diskriminator für OpenAI.ChunkingStrategyResponseParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
other |
OpenAI.OtherChunkingStrategyResponseParam |
static |
OpenAI.StaticChunkingStrategyResponseParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: static, other |
Yes |
OpenAI.CodeInterpreterOutput
Diskriminator für OpenAI.CodeInterpreterOutput
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
image |
OpenAI.CodeInterpreterOutputImage |
logs |
OpenAI.CodeInterpreterOutputLogs |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.CodeInterpreterOutputType | Yes |
OpenAI.CodeInterpreterOutputImage
Die Bildausgabe des Codedolmetschers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ der Ausgabe. Always 'image'. Mögliche Werte: image |
Yes | |
| url | string | Die URL der Bildausgabe des Codedolmetschers. | Yes |
OpenAI.CodeInterpreterOutputLogs
Die Protokolle werden vom Codedolmetscher ausgegeben.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Die Protokolle werden vom Codedolmetscher ausgegeben. | Yes | |
| type | enum | Der Typ der Ausgabe. Always 'logs'. Mögliche Werte: logs |
Yes |
OpenAI.CodeInterpreterOutputType
| Property | Value |
|---|---|
| Type | string |
| Values | logsimage |
OpenAI.CodeInterpreterTool
Ein Tool, das Python Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| container | object | Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll. | Yes | |
| └─ file_ids | array | Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. | No | |
| └─ type | enum | Immer auto.Mögliche Werte: auto |
No | |
| type | enum | Der Typ des Codedolmetschertools. Immer code_interpreter.Mögliche Werte: code_interpreter |
Yes |
OpenAI.CodeInterpreterToolAuto
Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. | No | |
| type | enum | Immer auto.Mögliche Werte: auto |
Yes |
OpenAI.CodeInterpreterToolCallItemParam
Ein Toolaufruf zum Ausführen von Code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der auszuführende Code oder null, falls nicht verfügbar. | Yes | |
| container_id | string | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Yes | |
| outputs | array | Die vom Codedolmetscher generierten Ausgaben, z. B. Protokolle oder Bilder. Kann null sein, wenn keine Ausgaben verfügbar sind. |
Yes | |
| type | enum | Mögliche Werte: code_interpreter_call |
Yes |
OpenAI.CodeInterpreterToolCallItemResource
Ein Toolaufruf zum Ausführen von Code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der auszuführende Code oder null, falls nicht verfügbar. | Yes | |
| container_id | string | Die ID des Containers, der zum Ausführen des Codes verwendet wird. | Yes | |
| outputs | array | Die vom Codedolmetscher generierten Ausgaben, z. B. Protokolle oder Bilder. Kann null sein, wenn keine Ausgaben verfügbar sind. |
Yes | |
| status | enum | Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed |
Yes | |
| type | enum | Mögliche Werte: code_interpreter_call |
Yes |
OpenAI.ComparisonFilter
Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Der Schlüssel, der mit dem Wert verglichen werden soll. | Yes | |
| type | enum | Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte- eq: entspricht- ne: ungleich- gt: größer als- gte: größer oder gleich- lt: kleiner als- lte: kleiner oder gleich.Mögliche Werte: eq, , ne, gtgte, , , ltlte |
Yes | |
| value | Zeichenfolge oder Zahl oder boolescher Wert | Yes |
OpenAI.CompletionUsage
Nutzungsstatistiken für die Abschlussanforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Anzahl der Token im generierten Abschluss. | Yes | 0 |
| completion_tokens_details | object | Aufschlüsselung der in einem Abschluss verwendeten Token. | No | |
| └─ accepted_prediction_tokens | integer | Bei Verwendung von "Vorhergesagte Ausgaben" gibt es die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. | No | 0 |
| └─ audio_tokens | integer | Vom Modell generierte Audioeingabetoken. | No | 0 |
| └─ reasoning_tokens | integer | Vom Modell generierte Token zur Begründung. | No | 0 |
| └─ rejected_prediction_tokens | integer | Bei Verwendung von vorhergesagten Ausgaben wird die Anzahl der Token in der Vorhersage, die nicht im Abschluss angezeigt wurden. Wie aus Gründen versehene Token werden diese Token jedoch weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. | No | 0 |
| prompt_tokens | integer | Anzahl der Token in der Eingabeaufforderung. | Yes | 0 |
| prompt_tokens_details | object | Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. | No | |
| └─ audio_tokens | integer | Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. | No | 0 |
| └─ cached_tokens | integer | Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. | No | 0 |
| total_tokens | integer | Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). | Yes | 0 |
OpenAI.CompoundFilter
Kombinieren mehrerer Filter mit and oder or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Yes | |
| type | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Yes |
OpenAI.ComputerAction
Diskriminator für OpenAI.ComputerAction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
click |
OpenAI.ComputerActionClick |
double_click |
OpenAI.ComputerActionDoubleClick |
drag |
OpenAI.ComputerActionDrag |
move |
OpenAI.ComputerActionMove |
screenshot |
OpenAI.ComputerActionScreenshot |
scroll |
OpenAI.ComputerActionScroll |
type |
OpenAI.ComputerActionTypeKeys |
wait |
OpenAI.ComputerActionWait |
keypress |
OpenAI.ComputerActionKeyPress |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerActionType | Yes |
OpenAI.ComputerActionClick
Eine Klickaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Gibt an, welche Maustaste während des Klickens gedrückt wurde. Einer von left, right, wheel, , backoder forward.Mögliche Werte: left, , rightwheel, , backforward |
Yes | |
| type | enum | Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf .clickMögliche Werte: click |
Yes | |
| x | integer | Die x-Koordinate, an der der Klick aufgetreten ist. | Yes | |
| y | integer | Die y-Koordinate, an der der Klick aufgetreten ist. | Yes |
OpenAI.ComputerActionDoubleClick
Eine Doppelklickaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf .double_clickMögliche Werte: double_click |
Yes | |
| x | integer | Die x-Koordinate, an der der Doppelklick aufgetreten ist. | Yes | |
| y | integer | Die y-Koordinate, an der der Doppelklick aufgetreten ist. | Yes |
OpenAI.ComputerActionDrag
Eine Ziehaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.{ x: 100, y: 200 }, { x: 200, y: 300 } |
Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf .dragMögliche Werte: drag |
Yes |
OpenAI.ComputerActionKeyPress
Eine Sammlung von Keypressen, die das Modell durchführen möchte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | Die Kombination von Tasten, die das Modell anfordert, zu drücken. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. | Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress.Mögliche Werte: keypress |
Yes |
OpenAI.ComputerActionMove
Eine Mausbewegungsaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf .moveMögliche Werte: move |
Yes | |
| x | integer | Die x-Koordinate, zu der verschoben werden soll. | Yes | |
| y | integer | Die y-Koordinate, zu der verschoben werden soll. | Yes |
OpenAI.ComputerActionScreenshot
Screenshotaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf .screenshotMögliche Werte: screenshot |
Yes |
OpenAI.ComputerActionScroll
Eine Bildlaufaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Der horizontale Bildlaufabstand. | Yes | |
| scroll_y | integer | Der vertikale Bildlaufabstand. | Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Bildlaufaktion ist diese Eigenschaft immer auf .scrollMögliche Werte: scroll |
Yes | |
| x | integer | Die x-Koordinate, an der der Bildlauf aufgetreten ist. | Yes | |
| y | integer | Die y-Koordinate, an der der Bildlauf aufgetreten ist. | Yes |
OpenAI.ComputerActionType
| Property | Value |
|---|---|
| Type | string |
| Values | screenshotclickdouble_clickscrolltypewaitkeypressdragmove |
OpenAI.ComputerActionTypeKeys
Eine Aktion, die in Text eingegeben werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Der einzugebende Text. | Yes | |
| type | enum | Gibt den Ereignistyp an. Bei einer Typaktion ist diese Eigenschaft immer auf .typeMögliche Werte: type |
Yes |
OpenAI.ComputerActionWait
Eine Warteaktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf .waitMögliche Werte: wait |
Yes |
OpenAI.ComputerToolCallItemParam
Ein Toolaufruf an einen Computer, der das Tool verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Yes | ||
| call_id | string | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird. | Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. | Yes | |
| type | enum | Mögliche Werte: computer_call |
Yes |
OpenAI.ComputerToolCallItemResource
Ein Toolaufruf an einen Computer, der das Tool verwendet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Yes | ||
| call_id | string | Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird. | Yes | |
| pending_safety_checks | array | Die ausstehenden Sicherheitsprüfungen für den Computeranruf. | Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Mögliche Werte: computer_call |
Yes |
OpenAI.ComputerToolCallOutputItemOutput
Diskriminator für OpenAI.ComputerToolCallOutputItemOutput
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
computer_screenshot |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerToolCallOutputItemOutputType | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. | Yes |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | No | ||
| image_url | string | No | ||
| type | enum | Mögliche Werte: computer_screenshot |
Yes |
OpenAI.ComputerToolCallOutputItemOutputType
Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
| Property | Value |
|---|---|
| Description | Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. |
| Type | string |
| Values | computer_screenshot |
OpenAI.ComputerToolCallOutputItemParam
Die Ausgabe eines Computertoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. | No | |
| call_id | string | Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. | Yes | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| type | enum | Mögliche Werte: computer_call_output |
Yes |
OpenAI.ComputerToolCallOutputItemResource
Die Ausgabe eines Computertoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. | No | |
| call_id | string | Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. | Yes | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Mögliche Werte: computer_call_output |
Yes |
OpenAI.ComputerToolCallSafetyCheck
Eine ausstehende Sicherheitsüberprüfung für den Computeranruf.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Typ der ausstehenden Sicherheitsüberprüfung. | Yes | |
| id | string | Die ID der ausstehenden Sicherheitsüberprüfung. | Yes | |
| message | string | Details zur ausstehenden Sicherheitsüberprüfung. | Yes |
OpenAI.ComputerUsePreviewTool
Ein Tool, das einen virtuellen Computer steuert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | integer | Die Höhe der Computeranzeige. | Yes | |
| display_width | integer | Die Breite der Computeranzeige. | Yes | |
| environment | enum | Der Typ der zu steuernden Computerumgebung. Mögliche Werte: windows, , maclinux, , ubuntubrowser |
Yes | |
| type | enum | Der Typ des Computerverwendungstools. Immer computer_use_preview.Mögliche Werte: computer_use_preview |
Yes |
OpenAI.Coordinate
Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. | Yes | |
| y | integer | The y-coordinate. | Yes |
OpenAI.CreateEmbeddingResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Die Liste der vom Modell generierten Einbettungen. | Yes | |
| model | string | Der Name des Modells, das zum Generieren der Einbettung verwendet wird. | Yes | |
| object | enum | Der Objekttyp, der immer "liste" ist. Mögliche Werte: list |
Yes | |
| usage | object | Die Nutzungsinformationen für die Anforderung. | Yes | |
| └─ prompt_tokens | integer | Die Anzahl der von der Eingabeaufforderung verwendeten Token. | No | |
| └─ total_tokens | integer | Die Gesamtzahl der von der Anforderung verwendeten Token. | No |
OpenAI.CreateEvalItem
Eine Chatnachricht, aus der die Eingabeaufforderung oder der Kontext besteht. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string oder OpenAI.EvalItemContent | Texteingaben für das Modell – können Vorlagenzeichenfolgen enthalten. | Yes | |
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.Mögliche Werte: user, , assistant, systemdeveloper |
Yes | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Mögliche Werte: message |
No |
OpenAI.CreateEvalRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name der Ausführung. | No |
OpenAI.CreateFineTuningJobRequest
Valid models:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | object | Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert ist nun zugunsten des methodParameters veraltet und sollte unter dem method Parameter übergeben werden. |
No | |
| └─ batch_size | enum | Mögliche Werte: auto |
No | |
| └─ learning_rate_multiplier | enum | Mögliche Werte: auto |
No | |
| └─ n_epochs | enum | Mögliche Werte: auto |
No | |
| integrations | array | Eine Liste der Integrationen, die Für Ihren Feinabstimmungsauftrag aktiviert werden sollen. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| method | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | No | |
| model | Zeichenfolge (siehe gültige Modelle unten) | Der Name des Modells, das optimiert werden soll. | Yes | |
| seed | integer | Der Seed steuert die Reproduzierbarkeit des Auftrags. Das Übergeben desselben Ausgangs- und Auftragsparameters sollte die gleichen Ergebnisse erzielen, kann sich aber in seltenen Fällen unterscheiden. Wenn kein Seed angegeben ist, wird ein Seed für Sie generiert. |
No | |
| suffix | string | Eine Zeichenfolge von bis zu 64 Zeichen, die ihrem fein abgestimmten Modellnamen hinzugefügt werden. Beispielsweise würde ein suffix "custom-model-name" einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| training_file | string | Die ID einer hochgeladenen Datei, die Schulungsdaten enthält. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tunehochladen.Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet. |
Yes | |
| validation_file | string | Die ID einer hochgeladenen Datei, die Überprüfungsdaten enthält. Wenn Sie diese Datei angeben, werden die Daten verwendet, um während der Feinabstimmung regelmäßig Validierungsmetriken zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden. Die gleichen Daten sollten nicht sowohl in Train- als auch in Validierungsdateien vorhanden sein. Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tunehochladen. |
No |
OpenAI.CreateFineTuningJobRequestIntegration
Diskriminator für OpenAI.CreateFineTuningJobRequestIntegration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
wandb |
OpenAI.CreateFineTuningJobRequestWandbIntegration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | Zeichenfolge (siehe gültige Modelle unten) | Yes |
OpenAI.CreateFineTuningJobRequestWandbIntegration
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: wandb |
Yes | |
| wandb | object | Yes | ||
| └─ entity | string | No | ||
| └─ name | string | No | ||
| └─ project | string | No | ||
| └─ tags | array | No |
OpenAI.CreateVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
OpenAI.CreateVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. |
No | |
| file_id | string | Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
Yes |
OpenAI.CreateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400. |
No | |
| └─ static | OpenAI.StaticChunkingStrategy | No | ||
| └─ type | enum | Immer static.Mögliche Werte: static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| file_ids | array | Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. |
No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
OpenAI.DeleteFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Mögliche Werte: file |
Yes |
OpenAI.DeleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Mögliche Werte: vector_store.file.deleted |
Yes |
OpenAI.DeleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Mögliche Werte: vector_store.deleted |
Yes |
OpenAI.Embedding
Stellt einen einbettenden Vektor dar, der vom Einbettungsendpunkt zurückgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| embedding | Array oder Zeichenfolge | Yes | ||
| index | integer | Der Index der Einbettung in der Liste der Einbettungen. | Yes | |
| object | enum | Der Objekttyp, der immer "einbetten" ist. Mögliche Werte: embedding |
Yes |
OpenAI.Eval
Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Like:
- Verbessern der Qualität meines Chatbots
- Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
- Überprüfen Sie, ob o4-mini bei meinem Usecase besser ist als gpt-4o
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. | Yes | |
| data_source_config | object | Yes | ||
| └─ type | OpenAI.EvalDataSourceConfigType | No | ||
| id | string | Eindeutiger Bezeichner für die Auswertung. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| name | string | Der Name der Auswertung. | Yes | |
| object | enum | Der Objekttyp. Mögliche Werte: eval |
Yes | |
| testing_criteria | array | Eine Liste der Testkriterien. | Yes | None |
OpenAI.EvalApiError
Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Fehlercode. | Yes | |
| message | string | Die Fehlermeldung. | Yes |
OpenAI.EvalCompletionsRunDataSourceParams
Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_messages | object | No | ||
| └─ item_reference | string | Ein Verweis auf eine Variable im item Namespace. Ie, "item.input_trajectory" |
No | |
| └─ template | array | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}. |
No | |
| └─ type | enum | Der Typ der Eingabemeldungen. Immer item_reference.Mögliche Werte: item_reference |
No | |
| model | string | Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). | No | |
| sampling_params | AzureEvalAPICompletionsSamplingParams | No | ||
| source | object | Yes | ||
| └─ content | array | Der Inhalt der JSONL-Datei. | No | |
| └─ created_after | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. | No | |
| └─ created_before | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. | No | |
| └─ id | string | Der Bezeichner der Datei. | No | |
| └─ limit | integer | Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ model | string | Ein optionales Modell zum Filtern nach (z. B. "gpt-4o"). | No | |
| └─ type | enum | Der Quelltyp. Immer stored_completions.Mögliche Werte: stored_completions |
No | |
| type | enum | Der Typ der Ausführungsdatenquelle. Immer completions.Mögliche Werte: completions |
Yes |
OpenAI.EvalCustomDataSourceConfigParams
Ein CustomDataSourceConfig -Objekt, das das Schema für die Datenquelle definiert, die für die Auswertung verwendet wird. Dieses Schema wird verwendet, um das Shape der Daten zu definieren, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
- Welche Daten beim Erstellen einer Ausführung erforderlich sind
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_sample_schema | boolean | Gibt an, ob die Auswertung davon ausgehen soll, dass Sie den Beispielnamespace auffüllen (d. h. durch Generieren von Antworten aus Der Datenquelle) | No | False |
| item_schema | object | Das JSON-Schema für jede Zeile in der Datenquelle. | Yes | |
| type | enum | Der Typ der Datenquelle. Immer custom.Mögliche Werte: custom |
Yes |
OpenAI.EvalCustomDataSourceConfigResource
Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt.
Das Antwortschema definiert das Shape der Daten, die folgendes sein werden:
- Wird verwendet, um Ihre Testkriterien zu definieren und
- Welche Daten beim Erstellen einer Ausführung erforderlich sind
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| schema | object | Das JSON-Schema für die Ausführen von Datenquellenelementen. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Yes | |
| type | enum | Der Typ der Datenquelle. Immer custom.Mögliche Werte: custom |
Yes |
OpenAI.EvalDataSourceConfigParams
Diskriminator für OpenAI.EvalDataSourceConfigParams
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigParams |
logs |
OpenAI.EvalLogsDataSourceConfigParams |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigResource
Diskriminator für OpenAI.EvalDataSourceConfigResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigResource |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigResource |
logs |
OpenAI.EvalLogsDataSourceConfigResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigType
| Property | Value |
|---|---|
| Type | string |
| Values | customlogsstored_completions |
OpenAI.EvalGraderLabelModelParams
Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}. |
Yes | |
| labels | array | Die Bezeichnungen, die für jedes Element in der Auswertung klassifiziert werden sollen. | Yes | |
| model | string | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| passing_labels | array | Die Beschriftungen, die ein übergebendes Ergebnis angeben. Muss eine Teilmenge von Bezeichnungen sein. | Yes | |
| type | enum | Der Objekttyp, der immer label_modelist.Mögliche Werte: label_model |
Yes |
OpenAI.EvalGraderLabelModelResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Yes | ||
| labels | array | Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. | Yes | |
| model | string | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| passing_labels | array | Die Beschriftungen, die ein übergebendes Ergebnis angeben. Muss eine Teilmenge von Bezeichnungen sein. | Yes | |
| type | enum | Der Objekttyp, der immer label_modelist.Mögliche Werte: label_model |
Yes |
OpenAI.EvalGraderParams
Diskriminator für OpenAI.EvalGraderParams
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelParams |
string_check |
OpenAI.EvalGraderStringCheckParams |
text_similarity |
OpenAI.EvalGraderTextSimilarityParams |
python |
OpenAI.EvalGraderPythonParams |
score_model |
OpenAI.EvalGraderScoreModelParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.EvalGraderPythonParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| name | string | Der Name des Graders. | Yes | |
| pass_threshold | number | Der Schwellenwert für die Bewertung. | No | |
| source | string | Der Quellcode des Python-Skripts. | Yes | |
| type | enum | Der Objekttyp, der immer pythonist.Mögliche Werte: python |
Yes |
OpenAI.EvalGraderPythonResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| name | string | Der Name des Graders. | Yes | |
| pass_threshold | number | Der Schwellenwert für die Bewertung. | No | |
| source | string | Der Quellcode des Python-Skripts. | Yes | |
| type | enum | Der Objekttyp, der immer pythonist.Mögliche Werte: python |
Yes |
OpenAI.EvalGraderResource
Diskriminator für OpenAI.EvalGraderResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelResource |
text_similarity |
OpenAI.EvalGraderTextSimilarityResource |
python |
OpenAI.EvalGraderPythonResource |
score_model |
OpenAI.EvalGraderScoreModelResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.EvalGraderScoreModelParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| model | string | Das Modell, das für die Auswertung verwendet werden soll. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| pass_threshold | number | Der Schwellenwert für die Bewertung. | No | |
| range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| sampling_params | Die Samplingparameter für das Modell. | No | ||
| type | enum | Der Objekttyp, der immer score_modelist.Mögliche Werte: score_model |
Yes |
OpenAI.EvalGraderScoreModelResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| model | string | Das Modell, das für die Auswertung verwendet werden soll. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| pass_threshold | number | Der Schwellenwert für die Bewertung. | No | |
| range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| sampling_params | Die Samplingparameter für das Modell. | No | ||
| type | enum | Der Objekttyp, der immer score_modelist.Mögliche Werte: score_model |
Yes |
OpenAI.EvalGraderStringCheckParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
Yes | |
| reference | string | Der Bezugstext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| type | enum | Der Objekttyp, der immer string_checkist.Mögliche Werte: string_check |
Yes |
OpenAI.EvalGraderTextSimilarityParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Yes | |
| input | string | Der Text, der benotet wird. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| pass_threshold | number | Der Schwellenwert für die Bewertung. | Yes | |
| reference | string | Der Text, der abgestuft wird. | Yes | |
| type | enum | Der Typ des Graders. Mögliche Werte: text_similarity |
Yes |
OpenAI.EvalGraderTextSimilarityResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Yes | |
| input | string | Der Text, der benotet wird. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| pass_threshold | number | Der Schwellenwert für die Bewertung. | Yes | |
| reference | string | Der Text, der abgestuft wird. | Yes | |
| type | enum | Der Typ des Graders. Mögliche Werte: text_similarity |
Yes |
OpenAI.EvalItem
Eine Meldungseingabe für das Modell mit einer Rolle, die die folgende Hierarchie angibt. Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | object | Yes | ||
| └─ type | OpenAI.EvalItemContentType | No | ||
| role | enum | Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.Mögliche Werte: user, , assistant, systemdeveloper |
Yes | |
| type | enum | Der Typ der Nachrichteneingabe. Immer message.Mögliche Werte: message |
No |
OpenAI.EvalItemContent
Diskriminator für OpenAI.EvalItemContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
input_text |
OpenAI.EvalItemContentInputText |
output_text |
OpenAI.EvalItemContentOutputText |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalItemContentType | Yes |
OpenAI.EvalItemContentInputText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Mögliche Werte: input_text |
Yes |
OpenAI.EvalItemContentOutputText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Mögliche Werte: output_text |
Yes |
OpenAI.EvalItemContentType
| Property | Value |
|---|---|
| Type | string |
| Values | input_textoutput_text |
OpenAI.EvalJsonlRunDataSourceParams
Ein JsonlRunDataSource-Objekt mit dem eine JSONL-Datei angibt, die dem Eval entspricht
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| source | object | Yes | ||
| └─ content | array | Der Inhalt der JSONL-Datei. | No | |
| └─ id | string | Der Bezeichner der Datei. | No | |
| └─ type | enum | Der Typ der JSONL-Quelle. Immer file_id.Mögliche Werte: file_id |
No | |
| type | enum | Der Typ der Datenquelle. Immer jsonl.Mögliche Werte: jsonl |
Yes |
OpenAI.EvalList
Ein Objekt, das eine Liste von Evals darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Ein Array von Eval-Objekten. | Yes | |
| first_id | string | Der Bezeichner der ersten Auswertung im Datenarray. | Yes | |
| has_more | boolean | Gibt an, ob weitere Auswertungen verfügbar sind. | Yes | |
| last_id | string | Der Bezeichner der letzten Auswertung im Datenarray. | Yes | |
| object | enum | Der Typ dieses Objekts. Es ist immer auf "liste" festgelegt. Mögliche Werte: list |
Yes |
OpenAI.EvalLogsDataSourceConfigParams
Eine Datenquellenkonfiguration, die die Metadateneigenschaft Ihrer Protokollabfrage angibt.
Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| type | enum | Der Typ der Datenquelle. Immer logs.Mögliche Werte: logs |
Yes |
OpenAI.EvalLogsDataSourceConfigResource
Eine LogsDataSourceConfig, die die Metadateneigenschaft Ihrer Protokollabfrage angibt.
Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Auswertungen verfügbar sind.
item und sample sind beide definiert, wenn sie diese Datenquellenkonfiguration verwenden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| schema | object | Das JSON-Schema für die Ausführen von Datenquellenelementen. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Yes | |
| type | enum | Der Typ der Datenquelle. Immer logs.Mögliche Werte: logs |
Yes |
OpenAI.EvalResponsesRunDataSourceParams
Ein ResponsesRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_messages | object | No | ||
| └─ item_reference | string | Ein Verweis auf eine Variable im item Namespace. Ie, "item.name" |
No | |
| └─ template | array | Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}. |
No | |
| └─ type | enum | Der Typ der Eingabemeldungen. Immer item_reference.Mögliche Werte: item_reference |
No | |
| model | string | Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). | No | |
| sampling_params | AzureEvalAPIResponseSamplingParams | No | ||
| source | object | Yes | ||
| └─ content | array | Der Inhalt der JSONL-Datei. | No | |
| └─ created_after | integer | Nur Elemente enthalten, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ created_before | integer | Nur Elemente enthalten, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ id | string | Der Bezeichner der Datei. | No | |
| └─ instructions_search | string | Optionale Zeichenfolge zum Durchsuchen des Felds "Anweisungen". Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ model | string | Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ reasoning_effort | OpenAI.ReasoningEffort | Optionaler Argumentierungsaufwandsparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ temperature | number | Sampling temperature. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ tools | array | Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ top_p | number | Kernsamplingparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| └─ type | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Mögliche Werte: responses |
No | |
| └─ users | array | Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| type | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Mögliche Werte: responses |
Yes |
OpenAI.EvalRun
Ein Schema, das eine Auswertungsausführung darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. | Yes | |
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| error | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | Yes | |
| eval_id | string | Der Bezeichner der zugeordneten Auswertung. | Yes | |
| id | string | Eindeutiger Bezeichner für die Auswertungsausführung. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| model | string | Das Modell, das ausgewertet wird, falls zutreffend. | Yes | |
| name | string | Der Name der Auswertungsausführung. | Yes | |
| object | enum | Der Typ des Objekts. Always "eval.run". Mögliche Werte: eval.run |
Yes | |
| per_model_usage | array | Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. | Yes | |
| per_testing_criteria_results | array | Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. | Yes | |
| report_url | string | Die URL zum gerenderten Auswertungsausführungsbericht im UI-Dashboard. | Yes | |
| result_counts | object | Indikatoren, die die Ergebnisse der Auswertungsausführung zusammenfassen. | Yes | |
| └─ errored | integer | Anzahl der Ausgabeelemente, die zu einem Fehler geführt haben. | No | |
| └─ failed | integer | Anzahl der Ausgabeelemente, die die Auswertung nicht bestanden haben. | No | |
| └─ passed | integer | Anzahl der Ausgabeelemente, die die Auswertung bestanden haben. | No | |
| └─ total | integer | Gesamtanzahl der ausgeführten Ausgabeelemente. | No | |
| status | string | Der Status der Auswertungsausführung. | Yes |
OpenAI.EvalRunDataContentSource
Diskriminator für OpenAI.EvalRunDataContentSource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
file_id |
OpenAI.EvalRunFileIdDataContentSource |
stored_completions |
OpenAI.EvalRunStoredCompletionsDataContentSource |
responses |
OpenAI.EvalRunResponsesDataContentSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataContentSourceType | Yes |
OpenAI.EvalRunDataContentSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | file_idfile_contentstored_completionsresponses |
OpenAI.EvalRunDataSourceCompletionsResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: completions |
Yes |
OpenAI.EvalRunDataSourceJsonlResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: jsonl |
Yes |
OpenAI.EvalRunDataSourceParams
Diskriminator für OpenAI.EvalRunDataSourceParams
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
jsonl |
OpenAI.EvalJsonlRunDataSourceParams |
completions |
OpenAI.EvalCompletionsRunDataSourceParams |
responses |
OpenAI.EvalResponsesRunDataSourceParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResponsesResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: responses |
Yes |
OpenAI.EvalRunDataSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | jsonlcompletionsresponses |
OpenAI.EvalRunFileContentDataContentSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der Inhalt der JSONL-Datei. | Yes | |
| type | enum | Der Typ der JSONL-Quelle. Immer file_content.Mögliche Werte: file_content |
Yes |
OpenAI.EvalRunFileIdDataContentSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Der Bezeichner der Datei. | Yes | |
| type | enum | Der Typ der JSONL-Quelle. Immer file_id.Mögliche Werte: file_id |
Yes |
OpenAI.EvalRunList
Ein Objekt, das eine Liste von Läufen für eine Auswertung darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Ein Array von eval run objects. | Yes | |
| first_id | string | Der Bezeichner des ersten Eval-Vorgangs im Datenarray. | Yes | |
| has_more | boolean | Gibt an, ob weitere Auswertungen verfügbar sind. | Yes | |
| last_id | string | Der Bezeichner der letzten Ausführung der Eval im Datenarray. | Yes | |
| object | enum | Der Typ dieses Objekts. Es ist immer auf "liste" festgelegt. Mögliche Werte: list |
Yes |
OpenAI.EvalRunOutputItem
Ein Schema, das ein Ausgabeelement für die Auswertungsausführung darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. | Yes | |
| datasource_item | object | Details des Eingabedatenquellelements. | Yes | |
| datasource_item_id | integer | Der Bezeichner für das Datenquellenelement. | Yes | |
| eval_id | string | Der Bezeichner der Auswertungsgruppe. | Yes | |
| id | string | Eindeutiger Bezeichner für das Ausgabeelement für die Auswertungsausführung. | Yes | |
| object | enum | Der Typ des Objekts. Always "eval.run.output_item". Mögliche Werte: eval.run.output_item |
Yes | |
| results | array | Eine Liste der Ergebnisse aus der Auswertungsausführung. | Yes | |
| run_id | string | Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. | Yes | |
| sample | object | Ein Beispiel, das die Eingabe und Ausgabe des Auswertungslaufs enthält. | Yes | |
| └─ error | OpenAI.EvalApiError | Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. | No | |
| └─ finish_reason | string | Der Grund, warum die Beispielgenerierung abgeschlossen wurde. | No | |
| └─ input | array | Ein Array von Eingabemeldungen. | No | |
| └─ max_completion_tokens | integer | Die maximale Anzahl von Token, die für den Abschluss zulässig sind. | No | |
| └─ model | string | Das Modell, das zum Generieren des Beispiels verwendet wird. | No | |
| └─ output | array | Ein Array von Ausgabemeldungen. | No | |
| └─ seed | integer | Der zum Generieren der Probe verwendete Ausgangswert. | No | |
| └─ temperature | number | Die verwendete Probenahmetemperatur. | No | |
| └─ top_p | number | Der top_p Wert, der für das Sampling verwendet wird. | No | |
| └─ usage | object | Details zur Tokenverwendung für das Beispiel. | No | |
| └─ cached_tokens | integer | Die Anzahl der Token, die aus dem Cache abgerufen wurden. | No | |
| └─ completion_tokens | integer | Die Anzahl der generierten Abschlusstoken. | No | |
| └─ prompt_tokens | integer | Die Anzahl der verwendeten Eingabeaufforderungstoken. | No | |
| └─ total_tokens | integer | Die Gesamtzahl der verwendeten Token. | No | |
| status | string | Der Status der Auswertungsausführung. | Yes |
OpenAI.EvalRunOutputItemList
Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Ein Array von eval run Output Item Objects. | Yes | |
| first_id | string | Der Bezeichner des ersten Ausgabeelements "eval run" im Datenarray. | Yes | |
| has_more | boolean | Gibt an, ob mehr Ausgabeelemente für die Auswertung verfügbar sind. | Yes | |
| last_id | string | Der Bezeichner des letzten Ausgabeelements der Eval-Ausführung im Datenarray. | Yes | |
| object | enum | Der Typ dieses Objekts. Es ist immer auf "liste" festgelegt. Mögliche Werte: list |
Yes |
OpenAI.EvalRunResponsesDataContentSource
Ein EvalResponsesSource-Objekt, das eine Run-Datenquellenkonfiguration beschreibt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_after | integer | Nur Elemente enthalten, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| created_before | integer | Nur Elemente enthalten, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| instructions_search | string | Optionale Zeichenfolge zum Durchsuchen des Felds "Anweisungen". Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| model | string | Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| reasoning_effort | object |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| temperature | number | Sampling temperature. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| tools | array | Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| top_p | number | Kernsamplingparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No | |
| type | enum | Der Typ der Ausführungsdatenquelle. Immer responses.Mögliche Werte: responses |
Yes | |
| users | array | Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. | No |
OpenAI.EvalRunStoredCompletionsDataContentSource
Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_after | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. | No | |
| created_before | integer | Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. | No | |
| limit | integer | Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| model | string | Ein optionales Modell zum Filtern nach (z. B. "gpt-4o"). | No | |
| type | enum | Der Quelltyp. Immer stored_completions.Mögliche Werte: stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigParams
Veraltet zugunsten von LogsDataSourceConfig.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Metadatenfilter für die gespeicherte Abschlussdatenquelle. | No | |
| type | enum | Der Typ der Datenquelle. Immer stored_completions.Mögliche Werte: stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigResource
Veraltet zugunsten von LogsDataSourceConfig.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| schema | object | Das JSON-Schema für die Ausführen von Datenquellenelementen. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Yes | |
| type | enum | Der Typ der Datenquelle. Immer stored_completions.Mögliche Werte: stored_completions |
Yes |
OpenAI.FileSearchTool
Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | object | No | ||
| max_num_results | integer | Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. | No | |
| ranking_options | object | No | ||
| └─ ranker | enum | Der Rangfolger, der für die Dateisuche verwendet werden soll. Mögliche Werte: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. | No | |
| type | enum | Der Typ des Dateisuchtools. Immer file_search.Mögliche Werte: file_search |
Yes | |
| vector_store_ids | array | Die IDs der zu durchsuchenden Vektorspeicher. | Yes |
OpenAI.FileSearchToolCallItemParam
Die Ergebnisse eines Dateisuchtoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| queries | array | Die Zum Suchen nach Dateien verwendeten Abfragen. | Yes | |
| results | array | Die Ergebnisse des Aufrufs des Dateisuchtools. | No | |
| type | enum | Mögliche Werte: file_search_call |
Yes |
OpenAI.FileSearchToolCallItemResource
Die Ergebnisse eines Dateisuchtoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| queries | array | Die Zum Suchen nach Dateien verwendeten Abfragen. | Yes | |
| results | array | Die Ergebnisse des Aufrufs des Dateisuchtools. | No | |
| status | enum | Der Status des Dateisuchtoolaufrufs. Einer von in_progress, searching, incomplete oder failed.Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed |
Yes | |
| type | enum | Mögliche Werte: file_search_call |
Yes |
OpenAI.Filters
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. |
Yes | |
| key | string | Der Schlüssel, der mit dem Wert verglichen werden soll. | Yes | |
| type | enum | Typ des Vorgangs: and oder or.Mögliche Werte: and, or |
Yes | |
| value | Zeichenfolge oder Zahl oder boolescher Wert | Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. | Yes |
OpenAI.FineTuneDPOHyperparameters
Die hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Mögliche Werte: auto |
No | |
| beta | enum | Mögliche Werte: auto |
No | |
| learning_rate_multiplier | enum | Mögliche Werte: auto |
No | |
| n_epochs | enum | Mögliche Werte: auto |
No |
OpenAI.FineTuneDPOMethod
Konfiguration für die DPO-Feinabstimmungsmethode.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneDPOHyperparameters | Die hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. | No |
OpenAI.FineTuneMethod
Die Methode, die für die Feinabstimmung verwendet wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dpo | OpenAI.FineTuneDPOMethod | Konfiguration für die DPO-Feinabstimmungsmethode. | No | |
| reinforcement | AzureFineTuneReinforcementMethod | No | ||
| supervised | OpenAI.FineTuneSupervisedMethod | Konfiguration für die überwachte Feinabstimmungsmethode. | No | |
| type | enum | Der Typ der Methode. Ist entweder supervised, , dpooder reinforcement.Mögliche Werte: supervised, , dporeinforcement |
Yes |
OpenAI.FineTuneReinforcementHyperparameters
Die Hyperparameter, die für den Verstärkungs-Feinabstimmungsauftrag verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Mögliche Werte: auto |
No | |
| compute_multiplier | enum | Mögliche Werte: auto |
No | |
| eval_interval | enum | Mögliche Werte: auto |
No | |
| eval_samples | enum | Mögliche Werte: auto |
No | |
| learning_rate_multiplier | enum | Mögliche Werte: auto |
No | |
| n_epochs | enum | Mögliche Werte: auto |
No | |
| reasoning_effort | enum | Ebene des Grundaufwands. Mögliche Werte: default, , low, mediumhigh |
No |
OpenAI.FineTuneSupervisedHyperparameters
Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Mögliche Werte: auto |
No | |
| learning_rate_multiplier | enum | Mögliche Werte: auto |
No | |
| n_epochs | enum | Mögliche Werte: auto |
No |
OpenAI.FineTuneSupervisedMethod
Konfiguration für die überwachte Feinabstimmungsmethode.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneSupervisedHyperparameters | Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. | No |
OpenAI.FineTuningIntegration
Diskriminator für OpenAI.FineTuningIntegration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
wandb |
OpenAI.FineTuningIntegrationWandb |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | Zeichenfolge (siehe gültige Modelle unten) | Yes |
OpenAI.FineTuningIntegrationWandb
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird. Mögliche Werte: wandb |
Yes | |
| wandb | object | Die Einstellungen für Ihre Integration mit Gewichtungen und Biases. Diese Nutzlast gibt das Projekt an, an das Metriken gesendet werden. Optional können Sie einen expliziten Anzeigenamen für Ihre Ausführung festlegen, Ihrer Ausführung Tags hinzufügen und eine Standardentität (Team, Benutzername usw.) festlegen, die Ihrer Ausführung zugeordnet werden soll. | Yes | |
| └─ entity | string | Die Entität, die für die Ausführung verwendet werden soll. Auf diese Weise können Sie das Team oder den Benutzernamen des WandB-Benutzers festlegen, den Sie der Ausführung zuordnen möchten. Wenn nicht festgelegt, wird die Standardentität für den registrierten WandB-API-Schlüssel verwendet. | No | |
| └─ name | string | Ein Anzeigename, der für die Ausführung festgelegt werden soll. Wenn nicht festgelegt, verwenden wir die Auftrags-ID als Namen. | No | |
| └─ project | string | Der Name des Projekts, unter dem die neue Ausführung erstellt wird. | No | |
| └─ tags | array | Eine Liste der Tags, die an die neu erstellte Ausführung angefügt werden sollen. Diese Tags werden direkt an WandB weitergeleitet. Einige Standardtags werden von OpenAI generiert: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". | No |
OpenAI.FineTuningJob
Das fine_tuning.job Objekt stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Feinabstimmungsauftrags. | Yes | |
| error | object | Bei Feinabstimmungsaufträgen, die über failedverfügen, enthält dies weitere Informationen zur Ursache des Fehlers. |
Yes | |
| └─ code | string | Ein computerlesbarer Fehlercode. | No | |
| └─ message | string | Eine für Menschen lesbare Fehlermeldung. | No | |
| └─ param | string | Der Parameter, der ungültig war, in der Regel training_file oder validation_file. Dieses Feld ist NULL, wenn der Fehler nicht parameterspezifisch war. |
No | |
| estimated_finish | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Feinabstimmungsauftrags. Der Wert ist NULL, wenn der Feinabstimmungsauftrag nicht ausgeführt wird. | No | |
| fine_tuned_model | string | Der Name des fein abgestimmten Modells, das erstellt wird. Der Wert ist NULL, wenn der Feinabstimmungsauftrag noch ausgeführt wird. | Yes | |
| finished_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Feinabstimmungsauftrags. Der Wert ist NULL, wenn der Feinabstimmungsauftrag noch ausgeführt wird. | Yes | |
| hyperparameters | object | Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert wird nur zurückgegeben, wenn Aufträge ausgeführt supervised werden. |
Yes | |
| └─ batch_size | enum | Mögliche Werte: auto |
No | |
| └─ learning_rate_multiplier | enum | Mögliche Werte: auto |
No | |
| └─ n_epochs | enum | Mögliche Werte: auto |
No | |
| id | string | Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Yes | |
| integrations | array | Eine Liste der Integrationen, die für diesen Feinabstimmungsauftrag aktiviert werden sollen. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| method | OpenAI.FineTuneMethod | Die Methode, die für die Feinabstimmung verwendet wird. | No | |
| model | string | Das Basismodell, das fein abgestimmt wird. | Yes | |
| object | enum | Der Objekttyp, der immer "fine_tuning.job" ist. Mögliche Werte: fine_tuning.job |
Yes | |
| organization_id | string | Die Organisation, die den Feinabstimmungsauftrag besitzt. | Yes | |
| result_files | array | Die kompilierten Ergebnisdatei-ID(n) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. | Yes | |
| seed | integer | Der für den Feinabstimmungsauftrag verwendete Seed. | Yes | |
| status | enum | Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, , queued, running, , succeeded, oder failedcancelled.Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled |
Yes | |
| trained_tokens | integer | Die Gesamtzahl der token, die von diesem Feinabstimmungsauftrag verarbeitet werden. Der Wert ist NULL, wenn der Feinabstimmungsauftrag noch ausgeführt wird. | Yes | |
| training_file | string | Die datei-ID, die für die Schulung verwendet wird. Sie können die Schulungsdaten mit der Dateien-API abrufen. | Yes | |
| user_provided_suffix | string | Das beschreibende Suffix, das auf den Auftrag angewendet wurde, wie in der Auftragserstellungsanforderung angegeben. | No | |
| validation_file | string | Die zur Überprüfung verwendete Datei-ID. Sie können die Validierungsergebnisse mit der Datei-API abrufen. | Yes |
OpenAI.FineTuningJobCheckpoint
Das fine_tuning.job.checkpoint Objekt stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. | Yes | |
| fine_tuned_model_checkpoint | string | Der Name des erstellten fein abgestimmten Prüfpunktmodells. | Yes | |
| fine_tuning_job_id | string | Der Name des Feinabstimmungsauftrags, aus dem dieser Prüfpunkt erstellt wurde. | Yes | |
| id | string | Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Yes | |
| metrics | object | Metriken bei der Schrittnummer während des Feinabstimmungsauftrags. | Yes | |
| └─ full_valid_loss | number | No | ||
| └─ full_valid_mean_token_accuracy | number | No | ||
| └─ step | number | No | ||
| └─ train_loss | number | No | ||
| └─ train_mean_token_accuracy | number | No | ||
| └─ valid_loss | number | No | ||
| └─ valid_mean_token_accuracy | number | No | ||
| object | enum | Der Objekttyp, der immer "fine_tuning.job.checkpoint" ist. Mögliche Werte: fine_tuning.job.checkpoint |
Yes | |
| step_number | integer | Die Schrittnummer, an der der Prüfpunkt erstellt wurde. | Yes |
OpenAI.FineTuningJobEvent
Feinabstimmung des Auftragsereignisobjekts
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Feinabstimmungsauftrags. | Yes | |
| data | Die dem Ereignis zugeordneten Daten. | No | ||
| id | string | Der Objektbezeichner. | Yes | |
| level | enum | Die Protokollebene des Ereignisses. Mögliche Werte: info, , warnerror |
Yes | |
| message | string | Die Nachricht des Ereignisses. | Yes | |
| object | enum | Der Objekttyp, der immer "fine_tuning.job.event" ist. Mögliche Werte: fine_tuning.job.event |
Yes | |
| type | enum | Der Ereignistyp. Mögliche Werte: message, metrics |
No |
OpenAI.FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Yes | |
| parameters | Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. | No | ||
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
No | False |
OpenAI.FunctionTool
Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. | No | |
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes | |
| parameters | Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. | Yes | ||
| strict | boolean | Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standard true. |
Yes | |
| type | enum | Der Typ des Funktionstools. Immer function.Mögliche Werte: function |
Yes |
OpenAI.FunctionToolCallItemParam
Ein Toolaufruf zum Ausführen einer Funktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Yes | |
| name | string | Der Name der auszuführenden Funktion. | Yes | |
| type | enum | Mögliche Werte: function_call |
Yes |
OpenAI.FunctionToolCallItemResource
Ein Toolaufruf zum Ausführen einer Funktion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. | Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Yes | |
| name | string | Der Name der auszuführenden Funktion. | Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Mögliche Werte: function_call |
Yes |
OpenAI.FunctionToolCallOutputItemParam
Die Ausgabe eines Funktionstoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Yes | |
| output | string | Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. | Yes | |
| type | enum | Mögliche Werte: function_call_output |
Yes |
OpenAI.FunctionToolCallOutputItemResource
Die Ausgabe eines Funktionstoolaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. | Yes | |
| output | string | Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. | Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Mögliche Werte: function_call_output |
Yes |
OpenAI.Grader
Diskriminator für OpenAI.Grader
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
label_model |
OpenAI.GraderLabelModel |
text_similarity |
OpenAI.GraderTextSimilarity |
python |
OpenAI.GraderPython |
score_model |
OpenAI.GraderScoreModel |
multi |
OpenAI.GraderMulti |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.GraderLabelModel
Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Yes | ||
| labels | array | Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. | Yes | |
| model | string | Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| passing_labels | array | Die Beschriftungen, die ein übergebendes Ergebnis angeben. Muss eine Teilmenge von Bezeichnungen sein. | Yes | |
| type | enum | Der Objekttyp, der immer label_modelist.Mögliche Werte: label_model |
Yes |
OpenAI.GraderMulti
Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Grader, um eine einzelne Bewertung zu erzeugen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | Yes | |
| graders | object | Yes | ||
| name | string | Der Name des Graders. | Yes | |
| type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
Yes |
OpenAI.GraderPython
Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| name | string | Der Name des Graders. | Yes | |
| source | string | Der Quellcode des Python-Skripts. | Yes | |
| type | enum | Der Objekttyp, der immer pythonist.Mögliche Werte: python |
Yes |
OpenAI.GraderScoreModel
Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| model | string | Das Modell, das für die Auswertung verwendet werden soll. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| sampling_params | Die Samplingparameter für das Modell. | No | ||
| type | enum | Der Objekttyp, der immer score_modelist.Mögliche Werte: score_model |
Yes |
OpenAI.GraderStringCheck
Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
Yes | |
| reference | string | Der Bezugstext. Dies kann Vorlagenzeichenfolgen enthalten. | Yes | |
| type | enum | Der Objekttyp, der immer string_checkist.Mögliche Werte: string_check |
Yes |
OpenAI.GraderTextSimilarity
Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
Yes | |
| input | string | Der Text, der benotet wird. | Yes | |
| name | string | Der Name des Graders. | Yes | |
| reference | string | Der Text, der abgestuft wird. | Yes | |
| type | enum | Der Typ des Graders. Mögliche Werte: text_similarity |
Yes |
OpenAI.GraderType
| Property | Value |
|---|---|
| Type | string |
| Values | string_checktext_similarityscore_modellabel_modelpythonmulti |
OpenAI.ImageGenTool
Ein Tool, das Bilder mithilfe eines Modells wie gpt-image-1.5.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | NUR GPT-image-1: Hintergrundtyp für das generierte Bild. Einer von transparent, opaque, oder auto. Standard: auto.Mögliche Werte: transparent, , opaqueauto |
No | |
| input_image_mask | object | Optionale Maske für die Bemalung. Enthält image_url (Zeichenfolge, optional) und file_id (Zeichenfolge, optional). |
No | |
| └─ file_id | string | Datei-ID für das Maskenbild. | No | |
| └─ image_url | string | Base64-codiertes Maskenbild. | No | |
| model | enum | Das zu verwendende Modell der Bildgenerierung. Standard: gpt-image-1.Mögliche Werte: gpt-image-1, , gpt-image-1.5gpt-image-2 |
No | |
| moderation | enum | Moderationsebene für das generierte Bild. Standard: auto.Mögliche Werte: auto, low |
No | |
| output_compression | integer | Komprimierungsebene für das Ausgabebild. Default: 100. | No | 100 |
| output_format | enum | Das Ausgabeformat des generierten Bilds. Einer von png, webp, oder jpeg. Standard: png.Mögliche Werte: png, , webpjpeg |
No | |
| partial_images | integer | Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. | No | 0 |
| quality | enum | Die Qualität des generierten Bilds. Einer von low, medium, , highoder auto. Standard: auto.Mögliche Werte: low, , medium, highauto |
No | |
| size | enum | Die Größe des generierten Bilds. Einer von 1024x1024, 1024x1536, , 1536x1024oder auto. Standard: auto.Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto |
No | |
| type | enum | Der Typ des Tools zur Bildgenerierung. Immer image_generation.Mögliche Werte: image_generation |
Yes |
OpenAI.ImageGenToolCallItemParam
Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| result | string | Das generierte Bild, das in Base64 codiert wurde. | Yes | |
| type | enum | Mögliche Werte: image_generation_call |
Yes |
OpenAI.ImageGenToolCallItemResource
Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| result | string | Das generierte Bild, das in Base64 codiert wurde. | Yes | |
| status | enum | Mögliche Werte: in_progress, , completed, generatingfailed |
Yes | |
| type | enum | Mögliche Werte: image_generation_call |
Yes |
OpenAI.ImplicitUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Zeichenfolge oder Matrix | Yes |
OpenAI.Includable
Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
-
code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente. -
computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein. -
file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein. -
message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein. -
message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein. -
reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn derstoreParameter auffalse" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist).
| Property | Value |
|---|---|
| Description | Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind: - code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.- message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist). |
| Type | string |
| Values | code_interpreter_call.outputscomputer_call_output.output.image_urlfile_search_call.resultsmessage.input_image.image_urlmessage.output_text.logprobsreasoning.encrypted_content |
OpenAI.ItemContent
Diskriminator für OpenAI.ItemContent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
input_audio |
OpenAI.ItemContentInputAudio |
output_audio |
OpenAI.ItemContentOutputAudio |
refusal |
OpenAI.ItemContentRefusal |
input_text |
OpenAI.ItemContentInputText |
input_image |
OpenAI.ItemContentInputImage |
input_file |
OpenAI.ItemContentInputFile |
output_text |
OpenAI.ItemContentOutputText |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ItemContentType | Mehr modaler Eingabe- und Ausgabeinhalt. | Yes |
OpenAI.ItemContentInputAudio
Eine Audioeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-codierte Audiodaten. | Yes | |
| format | enum | Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.Mögliche Werte: mp3, wav |
Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_audio.Mögliche Werte: input_audio |
Yes |
OpenAI.ItemContentInputFile
Eine Dateieingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Der Inhalt der Datei, die an das Modell gesendet werden soll. | No | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. | No | |
| filename | string | Der Name der Datei, die an das Modell gesendet werden soll. | No | |
| type | enum | Der Typ des Eingabeelements. Immer input_file.Mögliche Werte: input_file |
Yes |
OpenAI.ItemContentInputImage
Eine Bildeingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low, oder auto. Standardwert ist .autoMögliche Werte: low, , highauto |
No | |
| file_id | string | Die ID der Datei, die an das Modell gesendet werden soll. | No | |
| image_url | string | Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollqualifiziertes URL- oder base64-codiertes Bild in einer Daten-URL. | No | |
| type | enum | Der Typ des Eingabeelements. Immer input_image.Mögliche Werte: input_image |
Yes |
OpenAI.ItemContentInputText
Eine Texteingabe für das Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Die Texteingabe für das Modell. | Yes | |
| type | enum | Der Typ des Eingabeelements. Immer input_text.Mögliche Werte: input_text |
Yes |
OpenAI.ItemContentOutputAudio
Eine Audioausgabe aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Base64-codierte Audiodaten aus dem Modell. | Yes | |
| transcript | string | Die Transkription der Audiodaten aus dem Modell. | Yes | |
| type | enum | Der Typ des Ausgabeaudios. Immer output_audio.Mögliche Werte: output_audio |
Yes |
OpenAI.ItemContentOutputText
Eine Textausgabe aus dem Modell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Die Anmerkungen der Textausgabe. | Yes | |
| logprobs | array | No | ||
| text | string | Die Textausgabe aus dem Modell. | Yes | |
| type | enum | Der Typ des Ausgabetexts. Immer output_text.Mögliche Werte: output_text |
Yes |
OpenAI.ItemContentRefusal
Eine Ablehnung des Modells.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Die Erklärung zur Ablehnung des Modells. | Yes | |
| type | enum | Die Art der Ablehnung. Immer refusal.Mögliche Werte: refusal |
Yes |
OpenAI.ItemContentType
Mehr modaler Eingabe- und Ausgabeinhalt.
| Property | Value |
|---|---|
| Description | Mehr modaler Eingabe- und Ausgabeinhalt. |
| Type | string |
| Values | input_textinput_audioinput_imageinput_fileoutput_textoutput_audiorefusal |
OpenAI.ItemParam
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diskriminator für OpenAI.ItemParam
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemParam |
computer_call |
OpenAI.ComputerToolCallItemParam |
computer_call_output |
OpenAI.ComputerToolCallOutputItemParam |
web_search_call |
OpenAI.WebSearchToolCallItemParam |
function_call |
OpenAI.FunctionToolCallItemParam |
function_call_output |
OpenAI.FunctionToolCallOutputItemParam |
reasoning |
OpenAI.ReasoningItemParam |
item_reference |
OpenAI.ItemReferenceItemParam |
image_generation_call |
OpenAI.ImageGenToolCallItemParam |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemParam |
local_shell_call |
OpenAI.LocalShellToolCallItemParam |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemParam |
mcp_list_tools |
OpenAI.MCPListToolsItemParam |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemParam |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemParam |
mcp_call |
OpenAI.MCPCallItemParam |
message |
OpenAI.ResponsesMessageItemParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ItemType | Yes |
OpenAI.ItemReferenceItemParam
Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Auf die vom Dienst stammte ID des zuvor generierten Antwortelements, auf das verwiesen wird. | Yes | |
| type | enum | Mögliche Werte: item_reference |
Yes |
OpenAI.ItemResource
Inhaltselement, das zum Generieren einer Antwort verwendet wird.
Diskriminator für OpenAI.ItemResource
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemResource |
computer_call |
OpenAI.ComputerToolCallItemResource |
computer_call_output |
OpenAI.ComputerToolCallOutputItemResource |
web_search_call |
OpenAI.WebSearchToolCallItemResource |
function_call |
OpenAI.FunctionToolCallItemResource |
function_call_output |
OpenAI.FunctionToolCallOutputItemResource |
reasoning |
OpenAI.ReasoningItemResource |
image_generation_call |
OpenAI.ImageGenToolCallItemResource |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemResource |
local_shell_call |
OpenAI.LocalShellToolCallItemResource |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemResource |
mcp_list_tools |
OpenAI.MCPListToolsItemResource |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemResource |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemResource |
mcp_call |
OpenAI.MCPCallItemResource |
message |
OpenAI.ResponsesMessageItemResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Yes | ||
| type | OpenAI.ItemType | Yes |
OpenAI.ItemType
| Property | Value |
|---|---|
| Type | string |
| Values | messagefile_search_callfunction_callfunction_call_outputcomputer_callcomputer_call_outputweb_search_callreasoningitem_referenceimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ListFineTuningJobCheckpointsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | No | ||
| has_more | boolean | Yes | ||
| last_id | string | No | ||
| object | enum | Mögliche Werte: list |
Yes |
OpenAI.ListFineTuningJobEventsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| has_more | boolean | Yes | ||
| object | enum | Mögliche Werte: list |
Yes |
OpenAI.ListModelsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| object | enum | Mögliche Werte: list |
Yes |
OpenAI.ListPaginatedFineTuningJobsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| has_more | boolean | Yes | ||
| object | enum | Mögliche Werte: list |
Yes |
OpenAI.ListVectorStoreFilesFilter
| Property | Value |
|---|---|
| Type | string |
| Values | in_progresscompletedfailedcancelled |
OpenAI.ListVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Mögliche Werte: list |
Yes |
OpenAI.ListVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Mögliche Werte: list |
Yes |
OpenAI.LocalShellExecAction
Führen Sie einen Shellbefehl auf dem Server aus.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| command | array | Der auszuführende Befehl. | Yes | |
| env | object | Umgebungsvariablen, die für den Befehl festgelegt werden sollen. | Yes | |
| timeout_ms | integer | Optionaler Timeout in Millisekunden für den Befehl. | No | |
| type | enum | Der Typ der lokalen Shellaktion. Immer exec.Mögliche Werte: exec |
Yes | |
| user | string | Optionaler Benutzer zum Ausführen des Befehls als. | No | |
| working_directory | string | Optionales Arbeitsverzeichnis zum Ausführen des Befehls in. | No |
OpenAI.LocalShellTool
Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des lokalen Shelltools. Immer local_shell.Mögliche Werte: local_shell |
Yes |
OpenAI.LocalShellToolCallItemParam
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten aufrufs des lokalen Shelltools. | Yes | |
| type | enum | Mögliche Werte: local_shell_call |
Yes |
OpenAI.LocalShellToolCallItemResource
Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Führen Sie einen Shellbefehl auf dem Server aus. | Yes | |
| call_id | string | Die eindeutige ID des vom Modell generierten aufrufs des lokalen Shelltools. | Yes | |
| status | enum | Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Mögliche Werte: local_shell_call |
Yes |
OpenAI.LocalShellToolCallOutputItemParam
Die Ausgabe eines Aufrufs eines lokalen Shell-Tools.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| output | string | Eine JSON-Zeichenfolge der Ausgabe des aufrufs des lokalen Shell-Tools. | Yes | |
| type | enum | Mögliche Werte: local_shell_call_output |
Yes |
OpenAI.LocalShellToolCallOutputItemResource
Die Ausgabe eines Aufrufs eines lokalen Shell-Tools.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| output | string | Eine JSON-Zeichenfolge der Ausgabe des aufrufs des lokalen Shell-Tools. | Yes | |
| status | enum | Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Mögliche Werte: local_shell_call_output |
Yes |
OpenAI.Location
Diskriminator für OpenAI.Location
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
approximate |
OpenAI.ApproximateLocation |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.LocationType | Yes |
OpenAI.LocationType
| Property | Value |
|---|---|
| Type | string |
| Values | approximate |
OpenAI.LogProb
Die Protokollwahrscheinlichkeit eines Tokens.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Yes | ||
| logprob | number | Yes | ||
| token | string | Yes | ||
| top_logprobs | array | Yes |
OpenAI.MCPApprovalRequestItemParam
Ein Antrag auf menschliche Genehmigung eines Werkzeugaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Yes | |
| name | string | Der Name des auszuführenden Tools. | Yes | |
| server_label | string | Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. | Yes | |
| type | enum | Mögliche Werte: mcp_approval_request |
Yes |
OpenAI.MCPApprovalRequestItemResource
Ein Antrag auf menschliche Genehmigung eines Werkzeugaufrufs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge mit Argumenten für das Tool. | Yes | |
| name | string | Der Name des auszuführenden Tools. | Yes | |
| server_label | string | Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. | Yes | |
| type | enum | Mögliche Werte: mcp_approval_request |
Yes |
OpenAI.MCPApprovalResponseItemParam
Eine Antwort auf eine MCP-Genehmigungsanforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | string | Die ID der Genehmigungsanforderung, die beantwortet wird. | Yes | |
| approve | boolean | Gibt an, ob die Anforderung genehmigt wurde. | Yes | |
| reason | string | Optionaler Grund für die Entscheidung. | No | |
| type | enum | Mögliche Werte: mcp_approval_response |
Yes |
OpenAI.MCPApprovalResponseItemResource
Eine Antwort auf eine MCP-Genehmigungsanforderung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | string | Die ID der Genehmigungsanforderung, die beantwortet wird. | Yes | |
| approve | boolean | Gibt an, ob die Anforderung genehmigt wurde. | Yes | |
| reason | string | Optionaler Grund für die Entscheidung. | No | |
| type | enum | Mögliche Werte: mcp_approval_response |
Yes |
OpenAI.MCPCallItemParam
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Yes | |
| error | string | Der Fehler des Toolaufrufs( falls vorhanden). | No | |
| name | string | Der Name des tools, das ausgeführt wurde. | Yes | |
| output | string | Die Ausgabe des Toolaufrufs. | No | |
| server_label | string | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Yes | |
| type | enum | Mögliche Werte: mcp_call |
Yes |
OpenAI.MCPCallItemResource
Ein Aufruf eines Tools auf einem MCP-Server.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. | Yes | |
| error | string | Der Fehler des Toolaufrufs( falls vorhanden). | No | |
| name | string | Der Name des tools, das ausgeführt wurde. | Yes | |
| output | string | Die Ausgabe des Toolaufrufs. | No | |
| server_label | string | Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. | Yes | |
| type | enum | Mögliche Werte: mcp_call |
Yes |
OpenAI.MCPListToolsItemParam
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | string | Fehlermeldung, wenn der Server keine Tools auflisten konnte. | No | |
| server_label | string | Die Bezeichnung des MCP-Servers. | Yes | |
| tools | array | Die auf dem Server verfügbaren Tools. | Yes | |
| type | enum | Mögliche Werte: mcp_list_tools |
Yes |
OpenAI.MCPListToolsItemResource
Eine Liste der auf einem MCP-Server verfügbaren Tools.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | string | Fehlermeldung, wenn der Server keine Tools auflisten konnte. | No | |
| server_label | string | Die Bezeichnung des MCP-Servers. | Yes | |
| tools | array | Die auf dem Server verfügbaren Tools. | Yes | |
| type | enum | Mögliche Werte: mcp_list_tools |
Yes |
OpenAI.MCPListToolsTool
Ein Tool, das auf einem MCP-Server verfügbar ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | Zusätzliche Anmerkungen zum Tool. | No | ||
| description | string | Die Beschreibung des Tools. | No | |
| input_schema | Das JSON-Schema, das die Eingabe des Tools beschreibt. | Yes | ||
| name | string | Der Name des Tools. | Yes |
OpenAI.MCPTool
Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allowed_tools | object | No | ||
| └─ tool_names | array | Liste der zulässigen Toolnamen. | No | |
| headers | object | Optionale HTTP-Header, die an den MCP-Server gesendet werden sollen. Wird für die Authentifizierung oder andere Zwecke verwendet. | No | |
| require_approval | -Objekt (siehe gültige Modelle unten) | Geben Sie an, welche Tools des MCP-Servers eine Genehmigung erfordern. | No | |
| server_label | string | Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. | Yes | |
| server_url | string | Die URL für den MCP-Server. | Yes | |
| type | enum | Der Typ des MCP-Tools. Immer mcp.Mögliche Werte: mcp |
Yes |
OpenAI.MetadataPropertyForRequest
Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No |
OpenAI.Model
Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Der Unix-Zeitstempel (in Sekunden), als das Modell erstellt wurde. | Yes | |
| id | string | Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. | Yes | |
| object | enum | Der Objekttyp, der immer "Modell" ist. Mögliche Werte: model |
Yes | |
| owned_by | string | Die Organisation, die das Modell besitzt. | Yes |
OpenAI.OtherChunkingStrategyResponseParam
Dies wird zurückgegeben, wenn die Blockierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei indiziert wurde, bevor das chunking_strategy Konzept in der API eingeführt wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Immer other.Mögliche Werte: other |
Yes |
OpenAI.ParallelToolCalls
Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.
Type: boolean
OpenAI.Prompt
Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. | Yes | |
| variables | object | Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. | No | |
| version | string | Optionale Version der Eingabeaufforderungsvorlage. | No |
OpenAI.RankingOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| ranker | enum | Der Rangfolger, der für die Dateisuche verwendet werden soll. Mögliche Werte: auto, default-2024-11-15 |
No | |
| score_threshold | number | Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. | No |
OpenAI.Reasoning
Nur o-Serienmodelle
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | object |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| generate_summary | enum |
Veraltet: Verwenden Sie summary stattdessen.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No |
OpenAI.ReasoningEffort
Nur o-Serienmodelle
Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
| Property | Value |
|---|---|
| Description |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
| Type | string |
| Values | lowmediumhigh |
OpenAI.ReasoningItemParam
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in die input Antwort-API für nachfolgende Wendungen einer Unterhaltung einzuschließen, wenn Sie den Kontext manuell verwalten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | string | Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort im reasoning.encrypted_contentinclude Parameter generiert wird. |
No | |
| summary | array | Textinhalt wird mit Gründen versehen. | Yes | |
| type | enum | Mögliche Werte: reasoning |
Yes |
OpenAI.ReasoningItemResource
Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in die input Antwort-API für nachfolgende Wendungen einer Unterhaltung einzuschließen, wenn Sie den Kontext manuell verwalten.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | string | Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort im reasoning.encrypted_contentinclude Parameter generiert wird. |
No | |
| summary | array | Textinhalt wird mit Gründen versehen. | Yes | |
| type | enum | Mögliche Werte: reasoning |
Yes |
OpenAI.ReasoningItemSummaryPart
Diskriminator für OpenAI.ReasoningItemSummaryPart
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
summary_text |
OpenAI.ReasoningItemSummaryTextPart |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ReasoningItemSummaryPartType | Yes |
OpenAI.ReasoningItemSummaryPartType
| Property | Value |
|---|---|
| Type | string |
| Values | summary_text |
OpenAI.ReasoningItemSummaryTextPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Mögliche Werte: summary_text |
Yes |
OpenAI.Response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | Yes | |
| error | object | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | Yes | |
| └─ code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | No | |
| └─ message | string | Eine lesbare Beschreibung des Fehlers. | No | |
| id | string | Eindeutiger Bezeichner für diese Antwort. | Yes | |
| incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | Yes | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| instructions | Zeichenfolge oder Matrix | Yes | ||
| max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
Yes | |
| output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
Yes | |
| output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | Yes | True |
| previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| prompt | object | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ id | string | Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. | No | |
| └─ version | string | Optionale Version der Eingabeaufforderungsvorlage. | No | |
| reasoning | object |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Nur o-Serienmodelle Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden. |
No | |
| └─ generate_summary | enum |
Veraltet: Verwenden Sie summary stattdessen.Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| └─ summary | enum | Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen. Einer von auto, concise, oder detailed.Mögliche Werte: auto, , concisedetailed |
No | |
| status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
Yes | |
| text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | No | |
| tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
Yes | |
| truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | Yes |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Wird ausgegeben, wenn ein partieller Codeausschnitt vom Codedolmetscher gestreamt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Der partielle Codeausschnitt, der vom Codedolmetscher gestreamt wird. | Yes | |
| item_id | string | Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call_code.delta.Mögliche Werte: response.code_interpreter_call_code.delta |
Yes |
OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
Wird ausgegeben, wenn der Codeausschnitt vom Codedolmetscher abgeschlossen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Die endgültige Codeausschnittausgabe des Codedolmetschers. | Yes | |
| item_id | string | Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Code abgeschlossen ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call_code.done.Mögliche Werte: response.code_interpreter_call_code.done |
Yes |
OpenAI.ResponseCodeInterpreterCallCompletedEvent
Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Codedolmetscheraufruf abgeschlossen ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.completed.Mögliche Werte: response.code_interpreter_call.completed |
Yes |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Codedolmetscheraufruf ausgeführt wird. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.in_progress.Mögliche Werte: response.code_interpreter_call.in_progress |
Yes |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements in der Antwort, für die der Codedolmetscher Code interpretiert. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.code_interpreter_call.interpreting.Mögliche Werte: response.code_interpreter_call.interpreting |
Yes |
OpenAI.ResponseCompletedEvent
Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| └─ created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | No | |
| └─ error | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Antwort. | No | |
| └─ incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | No | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| └─ instructions | Zeichenfolge oder Matrix | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| └─ max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| └─ max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
No | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
No | |
| └─ output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| └─ parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| └─ previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| └─ prompt | OpenAI.Prompt | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| └─ temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | |
| └─ text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| └─ tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| └─ top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| └─ top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | |
| └─ truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| └─ user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.completed.Mögliche Werte: response.completed |
Yes |
OpenAI.ResponseContentPartAddedEvent
Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des hinzugefügten Inhaltsteils. | Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ItemContentType | Mehr modaler Eingabe- und Ausgabeinhalt. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.content_part.added.Mögliche Werte: response.content_part.added |
Yes |
OpenAI.ResponseContentPartDoneEvent
Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, der abgeschlossen ist. | Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ItemContentType | Mehr modaler Eingabe- und Ausgabeinhalt. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.content_part.done.Mögliche Werte: response.content_part.done |
Yes |
OpenAI.ResponseCreatedEvent
Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| └─ created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | No | |
| └─ error | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Antwort. | No | |
| └─ incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | No | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| └─ instructions | Zeichenfolge oder Matrix | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| └─ max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| └─ max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
No | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
No | |
| └─ output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| └─ parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| └─ previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| └─ prompt | OpenAI.Prompt | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer von completed, failedin_progress, cancelled, queued, oder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| └─ temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | |
| └─ text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| └─ tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| └─ top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| └─ top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | |
| └─ truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| └─ user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.created.Mögliche Werte: response.created |
Yes |
OpenAI.ResponseError
Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | OpenAI.ResponseErrorCode | Der Fehlercode für die Antwort. | Yes | |
| message | string | Eine lesbare Beschreibung des Fehlers. | Yes |
OpenAI.ResponseErrorCode
Der Fehlercode für die Antwort.
| Property | Value |
|---|---|
| Description | Der Fehlercode für die Antwort. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Wird ausgegeben, wenn ein Fehler auftritt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Der Fehlercode. | Yes | |
| message | string | Die Fehlermeldung. | Yes | |
| param | string | Der Fehlerparameter. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer error.Mögliche Werte: error |
Yes |
OpenAI.ResponseFailedEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| └─ created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | No | |
| └─ error | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Antwort. | No | |
| └─ incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | No | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| └─ instructions | Zeichenfolge oder Matrix | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| └─ max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| └─ max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
No | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
No | |
| └─ output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| └─ parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| └─ previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| └─ prompt | OpenAI.Prompt | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| └─ temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | |
| └─ text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| └─ tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| └─ top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| └─ top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | |
| └─ truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| └─ user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.failed.Mögliche Werte: response.failed |
Yes |
OpenAI.ResponseFileSearchCallCompletedEvent
Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.file_search_call.completed.Mögliche Werte: response.file_search_call.completed |
Yes |
OpenAI.ResponseFileSearchCallInProgressEvent
Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.file_search_call.in_progress.Mögliche Werte: response.file_search_call.in_progress |
Yes |
OpenAI.ResponseFileSearchCallSearchingEvent
Wird ausgegeben, wenn eine Dateisuche zurzeit durchsucht wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, nach dem der Dateisuchaufruf durchsucht wird. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.file_search_call.searching.Mögliche Werte: response.file_search_call.searching |
Yes |
OpenAI.ResponseFormat
Diskriminator für OpenAI.ResponseFormat
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
text |
OpenAI.ResponseFormatText |
json_object |
OpenAI.ResponseFormatJsonObject |
json_schema |
OpenAI.ResponseFormatJsonSchema |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: text, , json_objectjson_schema |
Yes |
OpenAI.ResponseFormatJsonObject
JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten.
Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_object.Mögliche Werte: json_object |
Yes |
OpenAI.ResponseFormatJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. | Yes | |
| └─ description | string | Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. | No | |
| └─ name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | No | |
| └─ schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
No | |
| └─ strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
No | False |
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Mögliche Werte: json_schema |
Yes |
OpenAI.ResponseFormatJsonSchemaSchema
Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Type: object
OpenAI.ResponseFormatText
Standardantwortformat. Wird verwendet, um Textantworten zu generieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des zu definierenden Antwortformats. Immer text.Mögliche Werte: text |
Yes |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein partielles Funktionsaufrufargumentdelta vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Die hinzugefügten Funktionsaufrufargumente. | Yes | |
| item_id | string | Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.function_call_arguments.delta.Mögliche Werte: response.function_call_arguments.delta |
Yes |
OpenAI.ResponseFunctionCallArgumentsDoneEvent
Wird ausgegeben, wenn Funktionsaufrufargumente abgeschlossen werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Die Funktionsaufrufargumente. | Yes | |
| item_id | string | Die ID des Elements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements. | Yes | |
| type | enum | Mögliche Werte: response.function_call_arguments.done |
Yes |
OpenAI.ResponseImageGenCallCompletedEvent
Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung abgeschlossen ist und das endgültige Bild verfügbar ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.image_generation_call.completed'. Mögliche Werte: response.image_generation_call.completed |
Yes |
OpenAI.ResponseImageGenCallGeneratingEvent
Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild (Zwischenzustand) generiert.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.image_generation_call.generating'. Mögliche Werte: response.image_generation_call.generating |
Yes |
OpenAI.ResponseImageGenCallInProgressEvent
Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.image_generation_call.in_progress'. Mögliche Werte: response.image_generation_call.in_progress |
Yes |
OpenAI.ResponseImageGenCallPartialImageEvent
Wird ausgegeben, wenn ein Teilbild während des Streamings der Bildgenerierung verfügbar ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| partial_image_b64 | string | Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. | Yes | |
| partial_image_index | integer | 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.image_generation_call.partial_image'. Mögliche Werte: response.image_generation_call.partial_image |
Yes |
OpenAI.ResponseInProgressEvent
Wird ausgegeben, wenn die Antwort ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| └─ created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | No | |
| └─ error | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Antwort. | No | |
| └─ incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | No | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| └─ instructions | Zeichenfolge oder Matrix | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| └─ max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| └─ max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
No | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
No | |
| └─ output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| └─ parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| └─ previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| └─ prompt | OpenAI.Prompt | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| └─ temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | |
| └─ text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| └─ tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| └─ top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| └─ top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | |
| └─ truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| └─ user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.in_progress.Mögliche Werte: response.in_progress |
Yes |
OpenAI.ResponseIncompleteEvent
Ein Ereignis, das ausgegeben wird, wenn eine Antwort als unvollständig abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| └─ created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | No | |
| └─ error | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Antwort. | No | |
| └─ incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | No | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| └─ instructions | Zeichenfolge oder Matrix | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| └─ max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| └─ max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
No | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
No | |
| └─ output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| └─ parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| └─ previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| └─ prompt | OpenAI.Prompt | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| └─ temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | |
| └─ text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| └─ tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| └─ top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| └─ top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | |
| └─ truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| └─ user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| type | enum | Der Typ des Ereignisses. Immer response.incomplete.Mögliche Werte: response.incomplete |
Yes |
OpenAI.ResponseItemList
Eine Liste der Antwortelemente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. | Yes | |
| first_id | string | Die ID des ersten Elements in der Liste. | Yes | |
| has_more | boolean | Gibt an, ob weitere Elemente verfügbar sind. | Yes | |
| last_id | string | Die ID des letzten Elements in der Liste. | Yes | |
| object | enum | Der Typ des zurückgegebenen Objekts muss sein list.Mögliche Werte: list |
Yes |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | Die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf. | Yes | ||
| item_id | string | Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_call.arguments_delta'. Mögliche Werte: response.mcp_call.arguments_delta |
Yes |
OpenAI.ResponseMCPCallArgumentsDoneEvent
Wird ausgegeben, wenn die Argumente für einen MCP-Toolaufruf abgeschlossen werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | Die abgeschlossenen Argumente für den MCP-Toolaufruf. | Yes | ||
| item_id | string | Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_call.arguments_done'. Mögliche Werte: response.mcp_call.arguments_done |
Yes |
OpenAI.ResponseMCPCallCompletedEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf erfolgreich abgeschlossen wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_call.completed'. Mögliche Werte: response.mcp_call.completed |
Yes |
OpenAI.ResponseMCPCallFailedEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_call.failed'. Mögliche Werte: response.mcp_call.failed |
Yes |
OpenAI.ResponseMCPCallInProgressEvent
Wird ausgegeben, wenn ein MCP-Toolaufruf ausgeführt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_call.in_progress'. Mögliche Werte: response.mcp_call.in_progress |
Yes |
OpenAI.ResponseMCPListToolsCompletedEvent
Wird ausgegeben, wenn die Liste der verfügbaren MCP-Tools erfolgreich abgerufen wurde.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_list_tools.completed'. Mögliche Werte: response.mcp_list_tools.completed |
Yes |
OpenAI.ResponseMCPListToolsFailedEvent
Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools auflisten, fehlgeschlagen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_list_tools.failed'. Mögliche Werte: response.mcp_list_tools.failed |
Yes |
OpenAI.ResponseMCPListToolsInProgressEvent
Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Typ des Ereignisses. Always 'response.mcp_list_tools.in_progress'. Mögliche Werte: response.mcp_list_tools.in_progress |
Yes |
OpenAI.ResponseOutputItemAddedEvent
Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | object | Inhaltselement, das zum Generieren einer Antwort verwendet wird. | Yes | |
| └─ id | string | No | ||
| └─ type | OpenAI.ItemType | No | ||
| output_index | integer | Der Index des Ausgabeelements, das hinzugefügt wurde. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_item.added.Mögliche Werte: response.output_item.added |
Yes |
OpenAI.ResponseOutputItemDoneEvent
Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | object | Inhaltselement, das zum Generieren einer Antwort verwendet wird. | Yes | |
| └─ id | string | No | ||
| └─ type | OpenAI.ItemType | No | ||
| output_index | integer | Der Index des Ausgabeelements, das als erledigt markiert wurde. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_item.done.Mögliche Werte: response.output_item.done |
Yes |
OpenAI.ResponsePromptVariables
Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.
Type: object
OpenAI.ResponseQueuedEvent
Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. | No | False |
| └─ created_at | integer | Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. | No | |
| └─ error | OpenAI.ResponseError | Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. | No | |
| └─ id | string | Eindeutiger Bezeichner für diese Antwort. | No | |
| └─ incomplete_details | object | Details dazu, warum die Antwort unvollständig ist. | No | |
| └─ reason | enum | Der Grund, warum die Antwort unvollständig ist. Mögliche Werte: max_output_tokens, content_filter |
No | |
| └─ instructions | Zeichenfolge oder Matrix | Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde. Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten. |
No | |
| └─ max_output_tokens | integer | Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken | No | |
| └─ max_tool_calls | integer | Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. | No | |
| └─ metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| └─ object | enum | Der Objekttyp dieser Ressource - immer auf .responseMögliche Werte: response |
No | |
| └─ output | array | Ein Array von Inhaltselementen, die vom Modell generiert werden. - Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen. |
No | |
| └─ output_text | string | Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.Unterstützt in den Python- und JavaScript-SDKs. |
No | |
| └─ parallel_tool_calls | boolean | Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. | No | True |
| └─ previous_response_id | string | Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. | No | |
| └─ prompt | OpenAI.Prompt | Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. | No | |
| └─ reasoning | OpenAI.Reasoning |
Nur o-Serienmodelle Konfigurationsoptionen für Begründungsmodelle. |
No | |
| └─ status | enum | Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete |
No | |
| └─ temperature | number | Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern. |
No | |
| └─ text | object | Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject | Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. |
No | |
| └─ tools | array | Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.Die beiden Kategorien von Tools, die Sie bereitstellen können, sind: - Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern. |
No | |
| └─ top_logprobs | integer | Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. | No | |
| └─ top_p | number | Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden. Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern. |
No | |
| └─ truncation | enum | Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll. - auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.Mögliche Werte: auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. | No | |
| └─ user | string | Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. | No | |
| type | enum | Der Typ des Ereignisses. Always 'response.queued'. Mögliche Werte: response.queued |
Yes |
OpenAI.ResponseReasoningDeltaEvent
Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Grundinhalt vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Grundinhaltsteils innerhalb des Ausgabeelements. | Yes | |
| delta | Das partielle Update auf den Inhalt der Begründung. | Yes | ||
| item_id | string | Der eindeutige Bezeichner des Elements, für das die Ursache aktualisiert wird. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.reasoning.delta'. Mögliche Werte: response.reasoning.delta |
Yes |
OpenAI.ResponseReasoningDoneEvent
Wird ausgegeben, wenn der Grundinhalt für ein Element abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Grundinhaltsteils innerhalb des Ausgabeelements. | Yes | |
| item_id | string | Der eindeutige Bezeichner des Elements, für das die Begründung abgeschlossen ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| text | string | Der abschließende Text für die Begründung. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.reasoning.done'. Mögliche Werte: response.reasoning.done |
Yes |
OpenAI.ResponseReasoningSummaryDeltaEvent
Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Zusammenfassungsinhalt der Gründe vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | Die partielle Aktualisierung des Zusammenfassungsinhalts für die Begründung. | Yes | ||
| item_id | string | Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe aktualisiert wird. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb des Ausgabeelements. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.reasoning_summary.delta'. Mögliche Werte: response.reasoning_summary.delta |
Yes |
OpenAI.ResponseReasoningSummaryDoneEvent
Wird ausgegeben, wenn der Zusammenfassungsinhalt der Gründe für ein Element abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe abgeschlossen ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements im Ausgabearray der Antwort. | Yes | |
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb des Ausgabeelements. | Yes | |
| text | string | Der abschließende Zusammenfassungstext für die Begründung. | Yes | |
| type | enum | Der Typ des Ereignisses. Always 'response.reasoning_summary.done'. Mögliche Werte: response.reasoning_summary.done |
Yes |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Wird ausgegeben, wenn ein neuer Zusammenfassungsteil für die Begründung hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.reasoning_summary_part.added.Mögliche Werte: response.reasoning_summary_part.added |
Yes |
OpenAI.ResponseReasoningSummaryPartDoneEvent
Wird ausgegeben, wenn ein Zusammenfassungsteil für die Begründung abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.reasoning_summary_part.done.Mögliche Werte: response.reasoning_summary_part.done |
Yes |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Wird ausgegeben, wenn ein Delta zu einem Zusammenfassungstext für die Begründung hinzugefügt wird.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Das Textdelta, das der Zusammenfassung hinzugefügt wurde. | Yes | |
| item_id | string | Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. | Yes | |
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.reasoning_summary_text.delta.Mögliche Werte: response.reasoning_summary_text.delta |
Yes |
OpenAI.ResponseReasoningSummaryTextDoneEvent
Wird ausgegeben, wenn ein Grundübersichtstext abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Die ID des Elements, dem dieser Zusammenfassungstext zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem dieser Zusammenfassungstext zugeordnet ist. | Yes | |
| summary_index | integer | Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. | Yes | |
| text | string | Der vollständige Text der vollständigen Zusammenfassung der Begründung. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.reasoning_summary_text.done.Mögliche Werte: response.reasoning_summary_text.done |
Yes |
OpenAI.ResponseRefusalDeltaEvent
Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. | Yes | |
| delta | string | Der Verweigerungstext, der hinzugefügt wird. | Yes | |
| item_id | string | Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.refusal.delta.Mögliche Werte: response.refusal.delta |
Yes |
OpenAI.ResponseRefusalDoneEvent
Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, den der Ablehnungstext abgeschlossen hat. | Yes | |
| item_id | string | Die ID des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. | Yes | |
| refusal | string | Der Verweigerungstext, der abgeschlossen ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.refusal.done.Mögliche Werte: response.refusal.done |
Yes |
OpenAI.ResponseStreamEvent
Diskriminator für OpenAI.ResponseStreamEvent
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sequence_number | integer | Die Sequenznummer für dieses Ereignis. | Yes | |
| type | OpenAI.ResponseStreamEventType | Yes |
OpenAI.ResponseStreamEventType
| Property | Value |
|---|---|
| Type | string |
| Values | response.audio.deltaresponse.audio.doneresponse.audio_transcript.deltaresponse.audio_transcript.doneresponse.code_interpreter_call_code.deltaresponse.code_interpreter_call_code.doneresponse.code_interpreter_call.completedresponse.code_interpreter_call.in_progressresponse.code_interpreter_call.interpretingresponse.completedresponse.content_part.addedresponse.content_part.doneresponse.createderrorresponse.file_search_call.completedresponse.file_search_call.in_progressresponse.file_search_call.searchingresponse.function_call_arguments.deltaresponse.function_call_arguments.doneresponse.in_progressresponse.failedresponse.incompleteresponse.output_item.addedresponse.output_item.doneresponse.refusal.deltaresponse.refusal.doneresponse.output_text.annotation.addedresponse.output_text.deltaresponse.output_text.doneresponse.reasoning_summary_part.addedresponse.reasoning_summary_part.doneresponse.reasoning_summary_text.deltaresponse.reasoning_summary_text.doneresponse.web_search_call.completedresponse.web_search_call.in_progressresponse.web_search_call.searchingresponse.image_generation_call.completedresponse.image_generation_call.generatingresponse.image_generation_call.in_progressresponse.image_generation_call.partial_imageresponse.mcp_call.arguments_deltaresponse.mcp_call.arguments_doneresponse.mcp_call.completedresponse.mcp_call.failedresponse.mcp_call.in_progressresponse.mcp_list_tools.completedresponse.mcp_list_tools.failedresponse.mcp_list_tools.in_progressresponse.queuedresponse.reasoning.deltaresponse.reasoning.doneresponse.reasoning_summary.deltaresponse.reasoning_summary.done |
OpenAI.ResponseTextDeltaEvent
Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde. | Yes | |
| delta | string | Das Textdelta, das hinzugefügt wurde. | Yes | |
| item_id | string | Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_text.delta.Mögliche Werte: response.output_text.delta |
Yes |
OpenAI.ResponseTextDoneEvent
Wird ausgegeben, wenn Der Textinhalt abgeschlossen ist.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Der Index des Inhaltsteils, den der Textinhalt abgeschlossen hat. | Yes | |
| item_id | string | Die ID des Ausgabeelements, das der Textinhalt abgeschlossen ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, für das der Textinhalt abgeschlossen ist. | Yes | |
| text | string | Der textinhalt, der abgeschlossen ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.output_text.done.Mögliche Werte: response.output_text.done |
Yes |
OpenAI.ResponseTextFormatConfiguration
Diskriminator für OpenAI.ResponseTextFormatConfiguration
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
text |
OpenAI.ResponseTextFormatConfigurationText |
json_object |
OpenAI.ResponseTextFormatConfigurationJsonObject |
json_schema |
OpenAI.ResponseTextFormatConfigurationJsonSchema |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ResponseTextFormatConfigurationType | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. Durch das Konfigurieren von { "type": "json_schema" } strukturierten Ausgaben wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.Nicht empfohlen für gpt-4o und neuere Modelle: Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen. |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: json_object |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonSchema
JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. | No | |
| name | string | Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. | Yes | |
| schema | OpenAI.ResponseFormatJsonSchemaSchema | Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen. |
Yes | |
| strict | boolean | Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll. Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. |
No | False |
| type | enum | Der Typ des zu definierenden Antwortformats. Immer json_schema.Mögliche Werte: json_schema |
Yes |
OpenAI.ResponseTextFormatConfigurationText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: text |
Yes |
OpenAI.ResponseTextFormatConfigurationType
Ein Objekt, das das Format angibt, das das Modell ausgeben muss.
Durch das Konfigurieren von { "type": "json_schema" } strukturierten Ausgaben wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
| Property | Value |
|---|---|
| Description | Ein Objekt, das das Format angibt, das das Modell ausgeben muss. |
Durch das Konfigurieren von { "type": "json_schema" } strukturierten Ausgaben wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.
Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.
Nicht empfohlen für gpt-4o und neuere Modelle:
Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schemawird für Modelle bevorzugt, die sie unterstützen.
OpenAI.ResponseUsage
Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Die Anzahl der Eingabetoken. | Yes | |
| input_tokens_details | object | Eine detaillierte Aufschlüsselung der Eingabetoken. | Yes | |
| └─ cached_tokens | integer | Die Anzahl der Token, die aus dem Cache abgerufen wurden. | No | |
| output_tokens | integer | Die Anzahl der Ausgabetoken. | Yes | |
| output_tokens_details | object | Eine detaillierte Aufschlüsselung der Ausgabetoken. | Yes | |
| └─ reasoning_tokens | integer | Die Anzahl der Gründe für Token. | No | |
| total_tokens | integer | Die Gesamtzahl der verwendeten Token. | Yes |
OpenAI.ResponseWebSearchCallCompletedEvent
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.web_search_call.completed.Mögliche Werte: response.web_search_call.completed |
Yes |
OpenAI.ResponseWebSearchCallInProgressEvent
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.web_search_call.in_progress.Mögliche Werte: response.web_search_call.in_progress |
Yes |
OpenAI.ResponseWebSearchCallSearchingEvent
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. | Yes | |
| output_index | integer | Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. | Yes | |
| type | enum | Der Typ des Ereignisses. Immer response.web_search_call.searching.Mögliche Werte: response.web_search_call.searching |
Yes |
OpenAI.ResponsesAssistantMessageItemParam
Ein Nachrichtenparameterelement mit der assistant Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer assistantist.Mögliche Werte: assistant |
Yes |
OpenAI.ResponsesAssistantMessageItemResource
Ein Nachrichtenressourcenelement mit der assistant Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer assistantist.Mögliche Werte: assistant |
Yes |
OpenAI.ResponsesDeveloperMessageItemParam
Ein Nachrichtenparameterelement mit der developer Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer developerist.Mögliche Werte: developer |
Yes |
OpenAI.ResponsesDeveloperMessageItemResource
Ein Nachrichtenressourcenelement mit der developer Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer developerist.Mögliche Werte: developer |
Yes |
OpenAI.ResponsesMessageItemParam
Ein Antwortnachrichtelement, das eine Rolle und einen Inhalt darstellt, wie als Clientanforderungsparameter angegeben.
Diskriminator für OpenAI.ResponsesMessageItemParam
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemParam |
system |
OpenAI.ResponsesSystemMessageItemParam |
developer |
OpenAI.ResponsesDeveloperMessageItemParam |
assistant |
OpenAI.ResponsesAssistantMessageItemParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | object | Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. | Yes | |
| type | enum | Der Typ des Antwortelements, das immer "Nachricht" ist. Mögliche Werte: message |
Yes |
OpenAI.ResponsesMessageItemResource
Ein Ressourcenelement für Antwortnachrichten, das eine Rolle und inhalte darstellt, wie in Dienstantworten angegeben.
Diskriminator für OpenAI.ResponsesMessageItemResource
Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemResource |
system |
OpenAI.ResponsesSystemMessageItemResource |
developer |
OpenAI.ResponsesDeveloperMessageItemResource |
assistant |
OpenAI.ResponsesAssistantMessageItemResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | object | Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. | Yes | |
| status | enum | Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.Mögliche Werte: in_progress, , completedincomplete |
Yes | |
| type | enum | Der Typ des Antwortelements, das immer "Nachricht" ist. Mögliche Werte: message |
Yes |
OpenAI.ResponsesMessageRole
Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.
| Property | Value |
|---|---|
| Description | Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. |
| Type | string |
| Values | systemdeveloperuserassistant |
OpenAI.ResponsesSystemMessageItemParam
Ein Nachrichtenparameterelement mit der system Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer systemist.Mögliche Werte: system |
Yes |
OpenAI.ResponsesSystemMessageItemResource
Ein Nachrichtenressourcenelement mit der system Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer systemist.Mögliche Werte: system |
Yes |
OpenAI.ResponsesUserMessageItemParam
Ein Nachrichtenparameterelement mit der user Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer userist.Mögliche Werte: user |
Yes |
OpenAI.ResponsesUserMessageItemResource
Ein Nachrichtenressourcenelement mit der user Rolle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Der inhalt, der der Nachricht zugeordnet ist. | Yes | |
| role | enum | Die Rolle der Nachricht, die immer userist.Mögliche Werte: user |
Yes |
OpenAI.RunGraderRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Yes | |
| └─ calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | No | |
| └─ evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| └─ input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | No | |
| └─ model | string | Das Modell, das für die Auswertung verwendet werden soll. | No | |
| └─ name | string | Der Name des Graders. | No | |
| └─ operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
No | |
| └─ range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| └─ reference | string | Der Text, der abgestuft wird. | No | |
| └─ sampling_params | Die Samplingparameter für das Modell. | No | ||
| └─ source | string | Der Quellcode des Python-Skripts. | No | |
| └─ type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
No | |
| item | Das Datasetelement, das dem Grader bereitgestellt wird. Dies wird verwendet, um den item Namespace aufzufüllen. |
No | ||
| model_sample | string | Das zu bewertende Modellbeispiel. Dieser Wert wird verwendet, um den sample Namespace aufzufüllen. Die output_json Variable wird aufgefüllt, wenn das Modellbeispiel eine gültige JSON-Zeichenfolge ist. |
Yes |
OpenAI.RunGraderResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Yes | ||
| └─ errors | object | No | ||
| └─ formula_parse_error | boolean | No | ||
| └─ invalid_variable_error | boolean | No | ||
| └─ model_grader_parse_error | boolean | No | ||
| └─ model_grader_refusal_error | boolean | No | ||
| └─ model_grader_server_error | boolean | No | ||
| └─ model_grader_server_error_details | string | No | ||
| └─ other_error | boolean | No | ||
| └─ python_grader_runtime_error | boolean | No | ||
| └─ python_grader_runtime_error_details | string | No | ||
| └─ python_grader_server_error | boolean | No | ||
| └─ python_grader_server_error_type | string | No | ||
| └─ sample_parse_error | boolean | No | ||
| └─ truncated_observation_error | boolean | No | ||
| └─ unresponsive_reward_error | boolean | No | ||
| └─ execution_time | number | No | ||
| └─ name | string | No | ||
| └─ sampled_model_name | string | No | ||
| └─ scores | No | |||
| └─ token_usage | integer | No | ||
| └─ type | string | No | ||
| model_grader_token_usage_per_model | Yes | |||
| reward | number | Yes | ||
| sub_rewards | Yes |
OpenAI.StaticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Die Anzahl der Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.Beachten Sie, dass die Überlappung nicht die Hälfte von max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Minimalwert ist 100 und der Maximalwert ist 4096. |
Yes |
OpenAI.StaticChunkingStrategyRequestParam
Passen Sie Ihre eigene Blockierungsstrategie an, indem Sie die Blockgröße und den Block überlappen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | OpenAI.StaticChunkingStrategy | Yes | ||
| type | enum | Immer static.Mögliche Werte: static |
Yes |
OpenAI.StaticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | OpenAI.StaticChunkingStrategy | Yes | ||
| type | enum | Immer static.Mögliche Werte: static |
Yes |
OpenAI.StopConfiguration
Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.
Bis zu 4 Sequenzen, bei denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
Dieses Schema akzeptiert einen der folgenden Typen:
- string
- array
OpenAI.Tool
Diskriminator für OpenAI.Tool
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search_preview |
OpenAI.WebSearchPreviewTool |
code_interpreter |
OpenAI.CodeInterpreterTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellTool |
mcp |
OpenAI.MCPTool |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ToolType | Ein Tool, das zum Generieren einer Antwort verwendet werden kann. | Yes |
OpenAI.ToolChoiceObject
Diskriminator für OpenAI.ToolChoiceObject
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
file_search |
OpenAI.ToolChoiceObjectFileSearch |
computer_use_preview |
OpenAI.ToolChoiceObjectComputer |
web_search_preview |
OpenAI.ToolChoiceObjectWebSearch |
image_generation |
OpenAI.ToolChoiceObjectImageGen |
code_interpreter |
OpenAI.ToolChoiceObjectCodeInterpreter |
function |
OpenAI.ToolChoiceObjectFunction |
mcp |
OpenAI.ToolChoiceObjectMCP |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ToolChoiceObjectType | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. | Yes |
OpenAI.ToolChoiceObjectCodeInterpreter
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: code_interpreter |
Yes |
OpenAI.ToolChoiceObjectComputer
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: computer_use_preview |
Yes |
OpenAI.ToolChoiceObjectFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: file_search |
Yes |
OpenAI.ToolChoiceObjectFunction
Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name der funktion, die aufgerufen werden soll. | Yes | |
| type | enum | Bei Funktionsaufrufen ist der Typ immer function.Mögliche Werte: function |
Yes |
OpenAI.ToolChoiceObjectImageGen
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: image_generation |
Yes |
OpenAI.ToolChoiceObjectMCP
Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Der Name des Tools, das auf dem Server aufgerufen werden soll. | No | |
| server_label | string | Die Bezeichnung des zu verwendenden MCP-Servers. | Yes | |
| type | enum | Bei MCP-Tools ist der Typ immer mcp.Mögliche Werte: mcp |
Yes |
OpenAI.ToolChoiceObjectType
Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
| Property | Value |
|---|---|
| Description | Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. |
| Type | string |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewimage_generationcode_interpretermcp |
OpenAI.ToolChoiceObjectWebSearch
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Mögliche Werte: web_search_preview |
Yes |
OpenAI.ToolChoiceOptions
Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
| Property | Value |
|---|---|
| Description | Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. |
| Type | string |
| Values | noneautorequired |
OpenAI.ToolType
Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
| Property | Value |
|---|---|
| Description | Ein Tool, das zum Generieren einer Antwort verwendet werden kann. |
| Type | string |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewmcpcode_interpreterimage_generationlocal_shell |
OpenAI.TopLogProb
Die oberste Protokollwahrscheinlichkeit eines Tokens.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Yes | ||
| logprob | number | Yes | ||
| token | string | Yes |
OpenAI.TranscriptionAudioResponseFormat
References: OpenAI.AudioResponseFormat
OpenAI.TranscriptionInclude
| Property | Value |
|---|---|
| Type | string |
| Values | logprobs |
OpenAI.TranscriptionSegment
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Durchschnittliche Protokollprob des Segments. Wenn der Wert niedriger als -1 ist, sollten Sie die Logprobs nicht berücksichtigen. | Yes | |
| compression_ratio | number | Komprimierungsverhältnis des Segments. Wenn der Wert größer als 2,4 ist, sollten Sie die Komprimierung als fehlgeschlagen betrachten. | Yes | |
| end | number | Endzeit des Segments in Sekunden. | Yes | |
| id | integer | Eindeutiger Bezeichner des Segments. | Yes | |
| no_speech_prob | number | Die Wahrscheinlichkeit, dass kein Wort im Segment gesprochen wird. Wenn der Wert höher als 1,0 ist und der avg_logprob Wert unter -1 liegt, sollten Sie dieses Segment unbeaufsichtigt betrachten. |
Yes | |
| seek | integer | Suchversatz des Segments. | Yes | |
| start | number | Startzeit des Abschnitts in Sekunden. | Yes | |
| temperature | number | Temperaturparameter, der zum Generieren des Segments verwendet wird. | Yes | |
| text | string | Textinhalt des Segments. | Yes | |
| tokens | array | Array von Token-IDs für den Textinhalt. | Yes |
OpenAI.TranscriptionWord
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Endzeit des Worts in Sekunden. | Yes | |
| start | number | Startzeit des Worts in Sekunden. | Yes | |
| word | string | Der Textinhalt des Worts. | Yes |
OpenAI.TranslationAudioResponseFormat
References: OpenAI.AudioResponseFormat
OpenAI.UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | Yes |
OpenAI.UpdateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| └─ anchor | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Mögliche Werte: last_active_at |
No | |
| └─ days | integer | Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. | No | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
No | |
| name | string | Der Name des Vektorspeichers. | No |
OpenAI.VadConfig
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. | No | 300 |
| silence_duration_ms | integer | Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. |
No | 200 |
| threshold | number | Vertraulichkeitsschwellenwert (0,0 bis 1,0) für die Sprachaktivitätserkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. | No | 0.5 |
| type | enum | Muss so festgelegt sein, dass server_vad manuelle Blöcke mithilfe der serverseitigen VAD aktiviert werden.Mögliche Werte: server_vad |
Yes |
OpenAI.ValidateGraderRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | Yes | |
| └─ calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | No | |
| └─ evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| └─ input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | No | |
| └─ model | string | Das Modell, das für die Auswertung verwendet werden soll. | No | |
| └─ name | string | Der Name des Graders. | No | |
| └─ operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
No | |
| └─ range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| └─ reference | string | Der Text, der abgestuft wird. | No | |
| └─ sampling_params | Die Samplingparameter für das Modell. | No | ||
| └─ source | string | Der Quellcode des Python-Skripts. | No | |
| └─ type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
No |
OpenAI.ValidateGraderResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. | No | |
| └─ calculate_output | string | Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. | No | |
| └─ evaluation_metric | enum | Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Das Bildtag, das für das Python-Skript verwendet werden soll. | No | |
| └─ input | array | Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. | No | |
| └─ model | string | Das Modell, das für die Auswertung verwendet werden soll. | No | |
| └─ name | string | Der Name des Graders. | No | |
| └─ operation | enum | Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.Mögliche Werte: eq, , ne, likeilike |
No | |
| └─ range | array | Der Bereich der Bewertung. Standardwert ist .[0, 1] |
No | |
| └─ reference | string | Der Text, der abgestuft wird. | No | |
| └─ sampling_params | Die Samplingparameter für das Modell. | No | ||
| └─ source | string | Der Quellcode des Python-Skripts. | No | |
| └─ type | enum | Der Objekttyp, der immer multiist.Mögliche Werte: multi |
No |
OpenAI.VectorStoreExpirationAfter
Die Ablaufrichtlinie für einen Vektorspeicher.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | enum | Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.Mögliche Werte: last_active_at |
Yes | |
| days | integer | Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. | Yes |
OpenAI.VectorStoreFileAttributes
Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.
Type: object
OpenAI.VectorStoreFileBatchObject
Ein Batch von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Batches für Vektorspeicherdateien. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Die Anzahl der Dateien, die abgebrochen wurden. | No | |
| └─ completed | integer | Die Anzahl der Dateien, die verarbeitet wurden. | No | |
| └─ failed | integer | Die Anzahl der Dateien, die nicht verarbeitet werden konnten. | No | |
| └─ in_progress | integer | Die Anzahl der Dateien, die derzeit verarbeitet werden. | No | |
| └─ total | integer | Die Gesamtanzahl der Dateien. | No | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| object | enum | Der Objekttyp, der immer vector_store.file_batchist.Mögliche Werte: vector_store.files_batch |
Yes | |
| status | enum | Der Status des Vektorspeicherdateien-Batches, der entweder in_progress, , oder completedcancelledfailed.Mögliche Werte: in_progress, , completed, cancelledfailed |
Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Yes |
OpenAI.VectorStoreFileObject
Eine Liste von Dateien, die an einen Vektorspeicher angefügt sind.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. | No | |
| chunking_strategy | object | No | ||
| └─ type | enum | Mögliche Werte: static, other |
No | |
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Vektorspeicherdatei. | Yes | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| last_error | object | Der letzte Fehler, der dieser Vektorspeicherdatei zugeordnet ist.
null Wenn keine Fehler vorhanden sind. |
Yes | |
| └─ code | enum | Einer von server_error oder rate_limit_exceeded.Mögliche Werte: server_error, , unsupported_fileinvalid_file |
No | |
| └─ message | string | Eine lesbare Beschreibung des Fehlers. | No | |
| object | enum | Der Objekttyp, der immer vector_store.fileist.Mögliche Werte: vector_store.file |
Yes | |
| status | enum | Der Status der Vektorspeicherdatei, die entweder in_progress, , completedcancelledoder failed. Der Status completed gibt an, dass die Vektorspeicherdatei einsatzbereit ist.Mögliche Werte: in_progress, , completed, cancelledfailed |
Yes | |
| usage_bytes | integer | Die Gesamtauslastung des Vektorspeichers in Byte. Beachten Sie, dass sich dies möglicherweise von der ursprünglichen Dateigröße unterscheidet. | Yes | |
| vector_store_id | string | Die ID des Vektorspeichers, an den die Datei angefügt ist. | Yes |
OpenAI.VectorStoreObject
Ein Vektorspeicher ist eine Sammlung von verarbeiteten Dateien, die file_search vom Tool verwendet werden können.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Vektorspeichers. | Yes | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Die Ablaufrichtlinie für einen Vektorspeicher. | No | |
| expires_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Ablauf des Vektorspeichers. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Die Anzahl der Dateien, die abgebrochen wurden. | No | |
| └─ completed | integer | Die Anzahl der Dateien, die erfolgreich verarbeitet wurden. | No | |
| └─ failed | integer | Die Anzahl der Dateien, die nicht verarbeitet werden konnten. | No | |
| └─ in_progress | integer | Die Anzahl der Dateien, die derzeit verarbeitet werden. | No | |
| └─ total | integer | Die Gesamtanzahl der Dateien. | No | |
| id | string | Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. | Yes | |
| last_active_at | integer | Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. | Yes | |
| metadata | object | Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen. |
Yes | |
| name | string | Der Name des Vektorspeichers. | Yes | |
| object | enum | Der Objekttyp, der immer vector_storeist.Mögliche Werte: vector_store |
Yes | |
| status | enum | Der Status des Vektorspeichers, der entweder expired, , in_progressoder completed. Der Status gibt completed an, dass der Vektorspeicher einsatzbereit ist.Mögliche Werte: expired, , in_progresscompleted |
Yes | |
| usage_bytes | integer | Die Gesamtzahl der Bytes, die von den Dateien im Vektorspeicher verwendet werden. | Yes |
OpenAI.VoiceIdsShared
| Property | Value |
|---|---|
| Type | string |
| Values | alloyashballadcoralechofableonyxnovasageshimmerverse |
OpenAI.WebSearchAction
Diskriminator für OpenAI.WebSearchAction
Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:
| Type Value | Schema |
|---|---|
find |
OpenAI.WebSearchActionFind |
open_page |
OpenAI.WebSearchActionOpenPage |
search |
OpenAI.WebSearchActionSearch |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.WebSearchActionType | Yes |
OpenAI.WebSearchActionFind
Aktionstyp "suchen": Sucht innerhalb einer geladenen Seite nach einem Muster.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| pattern | string | Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. | Yes | |
| type | enum | Der Aktionstyp. Mögliche Werte: find |
Yes | |
| url | string | Die URL der Seite, die nach dem Muster gesucht wurde. | Yes |
OpenAI.WebSearchActionOpenPage
Aktionstyp "open_page" – Öffnet eine bestimmte URL aus Suchergebnissen.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Der Aktionstyp. Mögliche Werte: open_page |
Yes | |
| url | string | Die URL, die vom Modell geöffnet wurde. | Yes |
OpenAI.WebSearchActionSearch
Aktionstyp "suche" – Führt eine Websuchabfrage aus.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| query | string | Die Suchabfrage. | Yes | |
| type | enum | Der Aktionstyp. Mögliche Werte: search |
Yes |
OpenAI.WebSearchActionType
| Property | Value |
|---|---|
| Type | string |
| Values | searchopen_pagefind |
OpenAI.WebSearchPreviewTool
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| search_context_size | enum | Allgemeine Anleitung für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer von low, medium, oder high.
medium ist der Standardwert.Mögliche Werte: low, , mediumhigh |
No | |
| type | enum | Der Typ des Websuchtools. Einer von web_search_preview oder web_search_preview_2025_03_11.Mögliche Werte: web_search_preview |
Yes | |
| user_location | object | No | ||
| └─ type | OpenAI.LocationType | No |
OpenAI.WebSearchToolCallItemParam
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | object | Yes | ||
| └─ type | OpenAI.WebSearchActionType | No | ||
| type | enum | Mögliche Werte: web_search_call |
Yes |
OpenAI.WebSearchToolCallItemResource
Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | object | Yes | ||
| └─ type | OpenAI.WebSearchActionType | No | ||
| status | enum | Der Status des Aufrufs des Websuchtools. Mögliche Werte: in_progress, , searching, completedfailed |
Yes | |
| type | enum | Mögliche Werte: web_search_call |
Yes |
PineconeChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Die Parameterinformationen zum Steuern der Verwendung der Pinecone-Datenquelle. | Yes | |
| └─ allow_partial_result | boolean | Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. | No | False |
| └─ authentication | object | No | ||
| └─ key | string | No | ||
| └─ type | enum | Mögliche Werte: api_key |
No | |
| └─ embedding_dependency | object | Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. | No | |
| └─ type | AzureChatDataSourceVectorizationSourceType | Der Unterscheidungsbezeichner für die konkrete Vektorisierungsquelle. | No | |
| └─ environment | string | Der Mit Pinecone zu verwendende Umgebungsname. | No | |
| └─ fields_mapping | object | Feldzuordnungen, die auf daten angewendet werden, die von der Pinecone-Datenquelle verwendet werden. Beachten Sie, dass Inhaltsfeldzuordnungen für Pinecone erforderlich sind. |
No | |
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ in_scope | boolean | Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. | No | |
| └─ include_contexts | array | Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen. Standardmäßig werden Zitate und Absichten angefordert. |
No | ['citations', 'intent'] |
| └─ index_name | string | Der Name des zu verwendenden Pinecone-Datenbankindex. | No | |
| └─ max_search_queries | integer | Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen. Standardmäßig führt das System eine automatische Bestimmung durch. |
No | |
| └─ strictness | integer | Die konfigurierte Strenge der Suchrelevanzfilterung. Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort. |
No | |
| └─ top_n_documents | integer | Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. | No | |
| type | enum | Der diskriminierte Typbezeichner, der immer "Pinecone" ist. Mögliche Werte: pinecone |
Yes |
Quality
Die Qualität des abzurufenden Videoinhalts. Dadurch wird die Qualität des Videoinhalts angegeben, der zurückgegeben werden soll.
| Property | Value |
|---|---|
| Description | Die Qualität des abzurufenden Videoinhalts. Dadurch wird die Qualität des Videoinhalts angegeben, der zurückgegeben werden soll. |
| Type | string |
| Values | highlow |
ResponseFormatJSONSchemaRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | JSON-Schema für das Antwortformat | Yes | |
| type | enum | Typ des Antwortformats Mögliche Werte: json_schema |
Yes |
ResponseModalities
Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:
["text"]
Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:
["text", "audio"]
Array von: Zeichenfolge
SpeechGenerationResponseFormat
Die unterstützten Audioausgabeformate für Text-zu-Sprache.
Diese Komponente kann eine der folgenden Sein:
VideoGeneration
Ergebnis der Videogenerierung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Die Zeit, zu der die Videogenerierung erstellt wurde. | Yes | |
| height | integer | Die Höhe des Videos. | Yes | |
| id | string | Die ID der Videogenerierung. | Yes | |
| job_id | string | Die ID des Videogenerierungsauftrags für dieses Video. | Yes | |
| n_seconds | integer | Die Dauer der Videogenerierung. | Yes | |
| object | enum | Mögliche Werte: video.generation |
Yes | |
| prompt | string | Die Aufforderung für diese Videogenerierung. | Yes | |
| width | integer | Die Breite des Videos. | Yes |
VideoGenerationJob
Ein Auftrag zur Videogenerierung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Der Zeitpunkt, zu dem der Auftrag erstellt wurde. | Yes | |
| expires_at | integer | Der Zeitpunkt, zu dem der Auftrag automatisch aus dem Dienst gelöscht wird. Der Videoinhalt und die Metadaten des Auftrags sollten vor diesem Datum gespeichert werden, um Datenverluste zu vermeiden. | No | |
| failure_reason | Zeichenfolge (siehe gültige Modelle unten) | No | ||
| finished_at | integer | Die Zeit, zu der der Auftrag mit allen Videogenerationen abgeschlossen wurde. | No | |
| generations | array | Die generierten Videos für diesen Auftrag. Die Zahl hängt von der angegebenen n_variants und dem Erfolg der Generationen ab. | No | |
| height | integer | Die Höhe des Videos. | Yes | |
| id | string | Die ID des Auftrags. | Yes | |
| inpaint_items | array | Optionale Inpaintingelemente für diesen Videogenerierungsauftrag. | No | |
| model | string | Der Name der Bereitstellung, die für diesen Auftrag zur Videogenerierung verwendet werden soll. | Yes | |
| n_seconds | integer | Die Dauer des Auftrags zur Videogenerierung. | Yes | |
| n_variants | integer | Die Anzahl der Videos, die als Varianten für diesen Auftrag zur Videogenerierung erstellt werden sollen. | Yes | |
| object | enum | Mögliche Werte: video.generation.job |
Yes | |
| prompt | string | Die Aufforderung für diesen Auftrag zur Videogenerierung. | Yes | |
| status | object | Der Status eines Auftrags zur Videogenerierung. | Yes | |
| width | integer | Die Höhe des Videos. | Yes |
VideoGenerationJobList
Eine Liste der Aufträge zur Videogenerierung.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Die Liste der Aufträge zur Videogenerierung. | Yes | |
| first_id | string | Die ID des ersten Auftrags auf der aktuellen Seite, falls verfügbar. | No | |
| has_more | boolean | Ein Kennzeichen, das angibt, ob nach der Liste weitere Aufträge verfügbar sind. | Yes | |
| last_id | string | Die ID des letzten Auftrags auf der aktuellen Seite, falls verfügbar. | No | |
| object | enum | Mögliche Werte: list |
Yes |
Next steps
Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die modelle underlying that power Azure OpenAI.