Azure OpenAI in Microsoft Foundry Models REST API v1 Preview-Referenz

Dieser Artikel enthält Details zu den Ableitungs-REST-API-Endpunkten für Azure OpenAI.

Datenebenen-Ableitung

Der Rest des Artikels behandelt unsere neue Version der v1-Vorschau-API-Version der Azure OpenAI-Datenebenen-Ableitungsspezifikation. Erfahren Sie mehr in unserem API-Lebenszyklushandbuch.

Wenn Sie nach Dokumentationen zur neuesten Version der GA-API suchen, lesen Sie die neueste GA-Datenebenen-Ableitungs-API.

Create speech

POST {endpoint}/openai/v1/audio/speech?api-version=preview

Generiert Text-zu-Sprache-Audio aus dem Eingabetext.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite Microsoft Foundry Models API-Version, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Yes
instructions string Steuern Sie die Stimme Ihrer generierten Audiodaten mit zusätzlichen Anweisungen. Funktioniert nicht mit tts-1 oder tts-1-hd. No
model string Das Modell, das für diese Text-zu-Sprache-Anforderung verwendet werden soll. Yes
response_format object Die unterstützten Audioausgabeformate für Text-zu-Sprache. No
speed number Die Geschwindigkeit der Spracherkennung für generierte Audiodaten. Werte sind im Bereich von 0,25 bis 4,0 gültig, wobei 1,0 die Standardwerte und höhere Werte, die schnelleren Spracherkennungen entsprechen. No 1
stream_format enum Das Format, in das die Audiodaten gestreamt werden sollen. Unterstützte Formate sind sse und audio. sse wird für tts-1 oder tts-1-hd.
Mögliche Werte: sse, audio
No
voice object Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/octet-stream string

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Synthetisiert Audio aus dem bereitgestellten Text.

POST {endpoint}/openai/v1/audio/speech?api-version=preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3",
 "model": "tts-1"
}

Antworten: Statuscode: 200

{
  "body": "101010101"
}

Create transcription

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

Transkribiert Audio in die Eingabesprache.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
chunking_strategy object No
└─ prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. No 300
└─ silence_duration_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden). Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen. No 200
└─ threshold number Vertraulichkeitsschwellenwert (0,0 bis 1,0) für die Sprachaktivitätserkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. No 0.5
└─ type enum Muss so festgelegt sein, dass server_vad manuelle Blöcke mithilfe der serverseitigen VAD aktiviert werden.
Mögliche Werte: server_vad
No
file string Yes
filename string Der optionale Dateiname oder der beschreibende Bezeichner, der den Audiodaten zugeordnet werden soll. No
include[] array Zusätzliche Informationen, die in die Transkriptionsantwort aufgenommen werden sollen. logprobs gibt die Protokollwahrscheinlichkeiten der Token in der Antwort zurück, um das Vertrauen des Modells in die Transkription zu verstehen. logprobs funktioniert nur mit response_format auf json und nur mit den Modellen gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribeund gpt-4o-mini-transcribe-2025-12-15. No
language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. No
model string Das Modell, das für diese Transkriptionsanforderung verwendet werden soll. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format object No
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Hinweis: Streaming wird für das whisper-1 Modell nicht unterstützt und wird ignoriert. No False
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen. response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureAudioTranscriptionResponse
text/plain string

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Ruft transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Antworten: Statuscode: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Create translation

POST {endpoint}/openai/v1/audio/translations?api-version=preview

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Yes
filename string Optionaler Dateiname oder beschreibender Bezeichner, der den Audiodaten zugeordnet werden soll No
model string Das Modell, das für diese Übersetzungsanforderung verwendet werden soll. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. No
response_format object No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureAudioTranslationResponse
text/plain string

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Ruft englischsprachigen transkribierten Text und zugeordnete Metadaten aus bereitgestellten gesprochenen Audiodaten ab.

POST {endpoint}/openai/v1/audio/translations?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Antworten: Statuscode: 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Chatabschluss erstellen

POST {endpoint}/openai/v1/chat/completions?api-version=preview

Erstellt einen Chatabschluss.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. No
└─ format enum Gibt das Ausgabeaudioformat an. Muss einer von , , , ,wav oder mp3. flacopuspcm16
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
No
└─ voice object No
data_sources array Die Datenquellen, die für das Feature "On Your Data" verwendet werden sollen, ausschließlich für Azure OpenAI. No
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. No 0
function_call enum Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.
Mögliche Werte: none, auto
No
functions array Veraltet zugunsten von tools.
Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden. Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt. Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen. No None
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. No False
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
max_tokens integer Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.
Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird.
Dieser Wert ist jetzt zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel.
No
messages array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Abhängig vom verwendeten Modell werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, z. B. Text, Bilder und Audio. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.
Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
modalities object Ausgabetypen, die vom Modell generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]
No
model string Der Modellbereitstellungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. Yes
n integer Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. No 1
parallel_tool_calls object Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No
prediction object Basisdarstellung der vorhergesagten Ausgabe eines Modells. No
└─ type OpenAI.ChatOutputPredictionType No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. No 0
reasoning_effort object Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
response_format object No
└─ type enum
Mögliche Werte: text, , json_objectjson_schema
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop object Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu 4 Sequenzen, bei denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
No
store boolean Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in Modelldestillations- oder Evaluierungsprodukten gespeichert werden soll. No False
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. No False
stream_options object Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. No
└─ include_usage boolean Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array.

Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert. HINWEIS: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Erstellt einen Abschluss für die bereitgestellte Eingabeaufforderung, Parameter und das ausgewählte Modell.

POST {endpoint}/openai/v1/chat/completions?api-version=preview

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Create embedding

POST {endpoint}/openai/v1/embeddings?api-version=preview

Erstellt einen Einbettungsvektor, der den Eingabetext darstellt.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64.
Mögliche Werte: float, base64
No
input Zeichenfolge oder Matrix Yes
model string Das Modell, das für die Einbettungsanforderung verwendet werden soll. Yes
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.CreateEmbeddingResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Gibt die Einbettungen für eine bestimmte Eingabeaufforderung zurück.

POST {endpoint}/openai/v1/embeddings?api-version=preview

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Antworten: Statuscode: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

List evals

GET {endpoint}/openai/v1/evals?api-version=preview

Listet Auswertungen für ein Projekt auf.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
after query No string Bezeichner für die letzte Auswertung der vorherigen Paginierungsanforderung.
limit query No integer Ein Grenzwert für die Anzahl der Evals, die in einer einzelnen Paginierungsantwort zurückgegeben werden sollen.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge für Evals nach Zeitstempel. Wird asc für aufsteigende Reihenfolge oder desc für absteigende Reihenfolge verwendet.
order_by query No string
Mögliche Werte: created_at, updated_at
Evals können nach Erstellungszeit oder zuletzt aktualisierter Zeit sortiert werden. Wird für die Erstellungszeit oder created_at für die uhrzeit der letzten Aktualisierung verwendetupdated_at.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.EvalList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Createeval

POST {endpoint}/openai/v1/evals?api-version=preview

Erstellen Sie die Struktur einer Auswertung, die zum Testen der Leistung eines Modells verwendet werden kann.

Eine Auswertung ist eine Reihe von Testkriterien und eine Datenquelle. Nachdem Sie eine Auswertung erstellt haben, können Sie sie auf verschiedenen Modellen und Modellparametern ausführen. Wir unterstützen verschiedene Arten von Benotern und Datenquellen.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
data_source_config object Yes
└─ type OpenAI.EvalDataSourceConfigType No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name der Auswertung. No
statusCode enum
Mögliche Werte: 201
Yes
testing_criteria array Eine Liste der Benoter für alle Auswertungen in dieser Gruppe. Grader können mithilfe von doppelt geschweiften Klammern auf Variablen in der Datenquelle verweisen, z {{item.variable_name}}. B. . Um auf die Ausgabe des Modells zu verweisen, verwenden Sie den sample Namespace (ie, {{sample.output_text}}). Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Get eval

GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Rufen Sie eine Auswertung anhand ihrer ID ab. Ruft eine Auswertung anhand der ID ab.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Update eval

POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Aktualisieren Sie ausgewählte, veränderbare Eigenschaften einer angegebenen Auswertung.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata OpenAI.MetadataPropertyForRequest Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.Eval

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Delete eval

DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Löschen sie eine angegebene Auswertung.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json object

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen von eval-Ausführungen

GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Dient zum Abrufen einer Liste von Läufen für eine angegebene Auswertung.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string
after query No string
limit query No integer
order query No string
Mögliche Werte: asc, desc
status query No string
Mögliche Werte: queued, , in_progresscompleted, , canceledfailed

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.EvalRunList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Erstellen einer eval-Ausführung

POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Erstellen Sie einen neuen Auswertungslauf, und beginnen Sie mit dem Benotungsprozess.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
data_source object Yes
└─ type OpenAI.EvalRunDataSourceType No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name der Ausführung. No

Responses

Statuscode: 201

Beschreibung: Die Anforderung ist erfolgreich und eine neue Ressource wurde als Ergebnis erstellt.

Content-Type Type Description
application/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen einer eval-Ausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Dient zum Abrufen einer bestimmten Auswertung, die von der ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string
run_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abbrechen der Ausführung der Auswertung

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Abbrechen einer bestimmten Auswertung, die von der ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string
run_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.EvalRun

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Deleteevalrun

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Löschen Sie eine bestimmte Auswertung, die von ihrer ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string
run_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json object

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen von Ausgabeelementen für die eval-Ausführung

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview

Dient zum Abrufen einer Liste der Ausgabeelemente für einen angegebenen Auswertungslauf.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string
run_id path Yes string
after query No string
limit query No integer
status query No string
Mögliche Werte: fail, pass
order query No string
Mögliche Werte: asc, desc

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.EvalRunOutputItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen des Ausgabeelements "eval run"

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview

Ruft ein bestimmtes Ausgabeelement aus einer Auswertung ab, die von seiner ID ausgeführt wird.

HINWEIS: Diese Azure OpenAI-API befindet sich in der Vorschau und kann geändert werden.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
aoai-evals header Yes string
Mögliche Werte: preview
Ermöglicht den Zugriff auf AOAI Evals, ein Vorschaufeature.
Für dieses Feature muss die Kopfzeile "aoai-evals" auf "vorschau" festgelegt werden.
eval_id path Yes string
run_id path Yes string
output_item_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.EvalRunOutputItem

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Create file

POST {endpoint}/openai/v1/files?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
expires_after object Yes
└─ anchor AzureFileExpiryAnchor No
└─ seconds integer No
file string Yes
purpose enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: - assistants: Wird in der Assistenten-API verwendet - batch: Wird in der Batch-API verwendet - fine-tune: Verwendet für Feinabstimmung - evals: Verwendet für eval-Datasets
Mögliche Werte: assistants, , batch, fine-tuneevals
Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureOpenAIFile

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

POST {endpoint}/openai/v1/files?api-version=preview

List files

GET {endpoint}/openai/v1/files?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
purpose query No string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureListFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Retrieve file

GET {endpoint}/openai/v1/files/{file_id}?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
file_id path Yes string Die ID der Datei, die für diese Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureOpenAIFile

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Delete file

DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
file_id path Yes string Die ID der Datei, die für diese Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.DeleteFileResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Download file

GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
file_id path Yes string Die ID der Datei, die für diese Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/octet-stream string

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Rungrader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview

Führen Sie einen Grader aus.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
grader object Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Yes
└─ calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. No
└─ evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
└─ input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. No
└─ model string Das Modell, das für die Auswertung verwendet werden soll. No
└─ name string Der Name des Graders. No
└─ operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
No
└─ range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
└─ reference string Der Text, der abgestuft wird. No
└─ sampling_params Die Samplingparameter für das Modell. No
└─ source string Der Quellcode des Python-Skripts. No
└─ type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
No
item Das Datasetelement, das dem Grader bereitgestellt wird. Dies wird verwendet, um den item Namespace aufzufüllen. No
model_sample string Das zu bewertende Modellbeispiel. Dieser Wert wird verwendet, um den sample Namespace aufzufüllen.
Die output_json Variable wird aufgefüllt, wenn das Modellbeispiel eine gültige JSON-Zeichenfolge ist.
Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.RunGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Validate grader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview

Überprüfen sie einen Grader.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
grader object Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Yes
└─ calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. No
└─ evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
└─ input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. No
└─ model string Das Modell, das für die Auswertung verwendet werden soll. No
└─ name string Der Name des Graders. No
└─ operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
No
└─ range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
└─ reference string Der Text, der abgestuft wird. No
└─ sampling_params Die Samplingparameter für das Modell. No
└─ source string Der Quellcode des Python-Skripts. No
└─ type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ValidateGraderResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Erstellen eines Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Erstellt einen Feinabstimmungsauftrag, der mit dem Erstellen eines neuen Modells aus einem bestimmten Dataset beginnt.

Die Antwort enthält Details des enqueuierten Auftrags einschließlich Auftragsstatus und den Namen der fein abgestimmten Modelle nach Abschluss.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
hyperparameters object Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten des methodParameters veraltet und sollte unter dem method Parameter übergeben werden.
No
└─ batch_size enum
Mögliche Werte: auto
No
└─ learning_rate_multiplier enum
Mögliche Werte: auto
No
└─ n_epochs enum
Mögliche Werte: auto
No
integrations array Eine Liste der Integrationen, die Für Ihren Feinabstimmungsauftrag aktiviert werden sollen. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. No
model Zeichenfolge (siehe gültige Modelle unten) Der Name des Modells, das optimiert werden soll. Yes
seed integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Das Übergeben desselben Ausgangs- und Auftragsparameters sollte die gleichen Ergebnisse erzielen, kann sich aber in seltenen Fällen unterscheiden.
Wenn kein Seed angegeben ist, wird ein Seed für Sie generiert.
No
suffix string Eine Zeichenfolge von bis zu 64 Zeichen, die ihrem fein abgestimmten Modellnamen hinzugefügt werden.

Beispielsweise würde ein suffix "custom-model-name" einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No None
training_file string Die ID einer hochgeladenen Datei, die Schulungsdaten enthält. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tunehochladen.

Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet.
Yes
validation_file string Die ID einer hochgeladenen Datei, die Überprüfungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um während der Feinabstimmung regelmäßig Validierungsmetriken zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Train- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tunehochladen.
No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Auflisten von paginierten Feinabstimmungsaufträgen

GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Auflisten der Feinabstimmungsaufträge Ihrer Organisation

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
after query No string Bezeichner für den letzten Auftrag aus der vorherigen Paginierungsanforderung.
limit query No integer Anzahl der abzurufenden Feinabstimmungsaufträge.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListPaginatedFineTuningJobsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen eines Feinabstimmungsauftrags

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview

Erhalten Sie Informationen zu einem Feinabstimmungsauftrag.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id path Yes string Die ID des Feinabstimmungsauftrags.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abbrechen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview

Sofortiges Abbrechen eines Feinabstimmungsauftrags.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id path Yes string Die ID des abzubrechenden Feinabstimmungsauftrags.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Auflisten von Feinabstimmungsauftragsprüfpunkten

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview

Auflisten der Prüfpunkte für einen Feinabstimmungsauftrag.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id path Yes string Die ID des Feinabstimmungsauftrags, für den Prüfpunkte abgerufen werden sollen.
after query No string Bezeichner für die letzte Prüfpunkt-ID aus der vorherigen Paginierungsanforderung.
limit query No integer Anzahl der abzurufenden Prüfpunkte.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListFineTuningJobCheckpointsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Auflisten von Feinabstimmungsereignissen

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview

Abrufen von Statusupdates für einen Feinabstimmungsauftrag.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id path Yes string Die ID des Feinabstimmungsauftrags, für den Ereignisse abgerufen werden sollen.
after query No string Bezeichner für das letzte Ereignis aus der vorherigen Paginierungsanforderung.
limit query No integer Anzahl der abzurufenden Ereignisse.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListFineTuningJobEventsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Feinabstimmungsauftrag anhalten

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview

Anhalten eines Feinabstimmungsauftrags.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id path Yes string Die ID des zu unterbrechenden Feinabstimmungsauftrags.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Fortsetzen des Feinabstimmungsauftrags

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview

Fortsetzen eines angehaltenen Feinabstimmungsauftrags.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
fine_tuning_job_id path Yes string Die ID des Feinabstimmungsauftrags, der fortgesetzt werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Erstellen einer Bildbearbeitung

POST {endpoint}/openai/v1/images/edits?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
No
image Zeichenfolge oder Matrix Yes
mask string No
model string Die Modellbereitstellung, die für den Bildbearbeitungsvorgang verwendet werden soll. Yes
n integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. No 100
output_format enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.
Der Standardwert ist png.
Mögliche Werte: png, , jpegwebp
No
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen für dall-e-2und 32000 Zeichen für gpt-image-1-Serienmodelle. Yes
quality enum Die Qualität des Bilds, das generiert wird. high, medium und low werden nur für Modelle der gpt-image-1Serie unterstützt. dall-e-2 unterstützt standard nur Qualität. Standardwert ist .auto
Mögliche Werte: standard, , lowmedium, , highauto
No
response_format enum Das Format, in dem die generierten Bilder zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird nur für dall-e-2"-series"-Modelle unterstützt, da gpt-image-1base64-codierte Bilder immer zurückgegeben werden.
Mögliche Werte: url, b64_json
No
size enum Die Größe der generierten Bilder. Muss eines von 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für gpt-image-1-Serienmodelle und eines von 256x256, 512x512oder 1024x1024 für dall-e-2.
Mögliche Werte: 256x256, , 512x512, 1024x10241536x1024, , , 1024x1536auto
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureImagesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Createimage

POST {endpoint}/openai/v1/images/generations?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
No
model string Die Modellbereitstellung, die für die Imagegenerierung verwendet werden soll. Yes
moderation enum Steuern Sie die Inhaltsmoderationsebene für Bilder, die von gpt-image-1-Serienmodellen generiert werden. Muss entweder low für weniger restriktive Filterung oder auto (Standardwert) sein.
Mögliche Werte: low, auto
No
n integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Nur für dall-e-3, n=1 wird unterstützt. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. No 100
output_format enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.
Mögliche Werte: png, , jpegwebp
No
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 32000 Zeichen für gpt-image-1-Serienmodelle, 1000 Zeichen für dall-e-2 und 4000 Zeichen für dall-e-3. Yes
quality enum Die Qualität des Bilds, das generiert wird.

- auto (Standardwert) wählt automatisch die beste Qualität für das angegebene Modell aus.
- high, medium und low werden für Modelle der gpt-image-1Serie unterstützt.
- hd und standard werden für dall-e-3.
- standard ist die einzige Option für dall-e-2.
Mögliche Werte: standard, , hd, lowmedium, , , highauto
No
response_format enum Das Format, in dem generierte Bilder mit dall-e-2 und dall-e-3 zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json
No
size enum Die Größe der generierten Bilder. Muss eine von 1024x1024, (Querformat), 1536x1024 (Hochformat) oder 1024x1536 (Standardwert) für auto-Serienmodelle, eines von gpt-image-1, 256x256, oder 512x512 für 1024x1024, und eine von dall-e-2, 1024x1024oder 1792x1024 für 1024x1792dall-e-3 .
Mögliche Werte: auto, , 1024x1024, 1536x10241024x1536, 256x256, , 512x512, 1792x10241024x1792
No
style enum Die Formatvorlage der generierten Bilder. Dieser Parameter wird nur für dall-e-3. Muss eine von vivid oder natural. Lebendig bewirkt, dass sich das Modell auf die Erzeugung hyper realer und dramatischer Bilder stützt. Natürlich erzeugt das Modell natürlichere, weniger hyper reale Bilder.
Mögliche Werte: vivid, natural
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureImagesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Erstellt Bilder mit einer Eingabeaufforderung.

POST {endpoint}/openai/v1/images/generations?api-version=preview

{
 "model": "dall-e-3",
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Antworten: Statuscode: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

List models

GET {endpoint}/openai/v1/models?api-version=preview

Listet die derzeit verfügbaren Modelle auf und enthält grundlegende Informationen zu jedem Modell, z. B. besitzer und Verfügbarkeit.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListModelsResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Retrieve model

GET {endpoint}/openai/v1/models/{model}?api-version=preview

Ruft eine Modellinstanz ab und stellt grundlegende Informationen zum Modell bereit, z. B. den Besitzer und die Berechtigung.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
model path Yes string Die ID des Modells, das für diese Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.Model

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Create response

POST {endpoint}/openai/v1/responses?api-version=preview

Erstellt eine Modellantwort.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
include array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.
- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist).
No
input Zeichenfolge oder Matrix No
instructions string Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. Yes
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
prompt object Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ id string Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. No
└─ variables OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. No
└─ version string Optionale Version der Eingabeaufforderungsvorlage. No
reasoning object Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ effort OpenAI.ReasoningEffort Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
└─ generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
└─ summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. No True
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. No False
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
No
└─ type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. You
kann angeben, welches Tool verwendet werden soll, indem der tool_choice Parameter festgelegt wird.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Erstellen einer Modellantwort

POST {endpoint}/openai/v1/responses?api-version=preview

Get response

GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Ruft eine Modellantwort mit der angegebenen ID ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id path Yes string
include[] query No array

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json AzureResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Delete response

DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Löscht eine Antwort nach ID.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json object

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Listeneingabeelemente

GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview

Gibt eine Liste der Eingabeelemente für eine bestimmte Antwort zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
response_id path Yes string
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ResponseItemList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Auflisten von Vektorspeichern

GET {endpoint}/openai/v1/vector_stores?api-version=preview

Gibt eine Liste von Vektorspeichern zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListVectorStoresResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Erstellen eines Vektorspeichers

POST {endpoint}/openai/v1/vector_stores?api-version=preview

Erstellt einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy object Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400. No
└─ static OpenAI.StaticChunkingStrategy No
└─ type enum Immer static.
Mögliche Werte: static
No
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Beispieldatei nicht gefunden: ./examples/vector_stores.json

Vektorspeicher abrufen

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Ruft einen Vektorspeicher ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des abzurufenden Vektorspeichers.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Ändern des Vektorspeichers

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Ändert einen Vektorspeicher.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des zu ändernden Vektorspeichers.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after object Die Ablaufrichtlinie für einen Vektorspeicher. No
└─ anchor enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Mögliche Werte: last_active_at
No
└─ days integer Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Vektorspeicher löschen

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Löschen eines Vektorspeichers.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des zu löschenden Vektorspeichers.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.DeleteVectorStoreResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Erstellen eines Vektorspeicherdateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview

Erstellen Sie einen Vektorspeicherdateibatch.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, für den ein Dateibatch erstellt werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen eines Vektorspeicherdateibatches

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview

Ruft einen Vektorspeicherdateibatch ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des abgerufenen Dateibatches.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abbrechen des Vektorspeicherdateibatches

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview

Abbrechen eines Vektorspeicherdateibatches. Dadurch wird versucht, die Verarbeitung von Dateien in diesem Batch so schnell wie möglich abzubrechen.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des zu abbrechenden Dateibatches.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Auflisten von Dateien im Vektorspeicherbatch

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview

Gibt eine Liste der Vektorspeicherdateien in einem Batch zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem der Dateibatch gehört.
batch_id path Yes string Die ID des Dateibatches, zu dem die Dateien gehören.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListVectorStoreFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Auflisten von Vektorspeicherdateien

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Gibt eine Liste von Vektorspeicherdateien zurück.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Dateien gehören.
limit query No integer Ein Grenzwert für die Anzahl der zurückzugebenden Objekte. Der Grenzwert kann zwischen 1 und 100 liegen, und der Standardwert ist 20.
order query No string
Mögliche Werte: asc, desc
Sortierreihenfolge nach dem created_at Zeitstempel der Objekte. asc für aufsteigende Reihenfolge unddesc absteigende Reihenfolge.
after query No string Ein Cursor für die Verwendung in der Paginierung. after ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen und mit obj_foo enden, kann Der nachfolgende Aufruf after=obj_foo enthalten, um die nächste Seite der Liste abzurufen.
before query No string Ein Cursor für die Verwendung in der Paginierung. before ist eine Objekt-ID, die Ihren Platz in der Liste definiert.
Wenn Sie z. B. eine Listenanforderung stellen und 100 Objekte empfangen, die mit obj_foo enden, kann Ihr nachfolgender Aufruf before=obj_foo enthalten, um die vorherige Seite der Liste abzurufen.
filter query No Filtern nach Dateistatus. Einer von in_progress, completed, failed, cancelled.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.ListVectorStoreFilesResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Erstellen einer Vektorspeicherdatei

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Erstellen Sie eine Vektorspeicherdatei, indem Sie eine Datei an einen Vektorspeicher anfügen.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, für den eine Datei erstellt werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_id string Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Abrufen einer Vektorspeicherdatei

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Ruft eine Vektorspeicherdatei ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der abgerufenen Datei.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Aktualisieren von Vektorspeicherdateiattributen

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string
file_id path Yes string

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Vektorspeicherdatei löschen

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Löschen Sie eine Vektorspeicherdatei. Dadurch wird die Datei aus dem Vektorspeicher entfernt, die Datei selbst wird jedoch nicht gelöscht. Verwenden Sie zum Löschen der Datei den Löschdateiendpunkt.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
vector_store_id path Yes string Die ID des Vektorspeichers, zu dem die Datei gehört.
file_id path Yes string Die ID der zu löschenden Datei.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json OpenAI.DeleteVectorStoreFileResponse

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureErrorResponse

Videogenerierungsaufträge – Erstellen

POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Erstellt einen neuen Auftrag zur Videogenerierung.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Request Body

Content-Type: application/json

Name Type Description Required Default
height integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes
model string Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. Yes
n_seconds integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. No 5
n_variants integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. No 1
prompt string Die Aufforderung für diesen Auftrag zur Videogenerierung. Yes
width integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
files array Yes
height integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes
inpaint_items array Optionale Inpaintingelemente für diesen Videogenerierungsauftrag. No
model string Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. Yes
n_seconds integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. No 5
n_variants integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. No 1
prompt string Die Aufforderung für diesen Auftrag zur Videogenerierung. Yes
width integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json VideoGenerationJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Beispieldatei nicht gefunden: ./examples/create_video_generation_job_simple.json

Videogenerierungsaufträge – Liste

GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Listet Videogenerierungsaufträge auf.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
before query No string
after query No string
limit query Yes integer
statuses query No array

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json VideoGenerationJobList

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Beispieldatei nicht gefunden: ./examples/get_video_generation_job_list.json

Videogenerierungsaufträge – Abrufen

GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Ruft die Eigenschaften eines Auftrags zur Videogenerierung ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
job-id path Yes string Die ID des Videogenerierungsauftrags, der für die Azure OpenAI-Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json VideoGenerationJob

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Beispieldatei nicht gefunden: ./examples/get_video_generation_job.json

Aufträge zur Videogenerierung – Löschen

DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Löscht einen Auftrag zur Videogenerierung.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
job-id path Yes string Die ID des Videogenerierungsauftrags, der für die Azure OpenAI-Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 204

Beschreibung: Es gibt keinen Inhalt, der für diese Anforderung gesendet werden soll, aber die Kopfzeilen können nützlich sein.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Videogenerationen – Abrufen

GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview

Ruft eine Videogenerierung nach ID ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id path Yes string Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
application/json VideoGeneration

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Beispieldatei nicht gefunden: ./examples/get_video_generation.json

Videogenerationen – Miniaturansicht abrufen

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview

Ruft eine Miniaturansicht des generierten Videoinhalts ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id path Yes string Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
image/jpg string

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Videogenerationen – Abrufen von Videoinhalten

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Ruft den generierten Videoinhalt ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id path Yes string Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.
quality query No

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Content-Type Type Description
video/mp4 string

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Videogenerationen – Nur Videoinhaltsheader abrufen

HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Ruft Kopfzeilen für den generierten Videoinhalt ab.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Unterstützte Azure OpenAI-Endpunkte (Protokoll und Hostname, z. B.: https://aoairesource.openai.azure.com. Ersetzen Sie "aoairesource" durch Ihren Azure OpenAI-Ressourcennamen). https://{your-resource-name}.openai.azure.com
api-version query No Die explizite VERSION der Foundry Models-API, die für diese Anforderung verwendet werden soll.
v1 wenn nicht anders angegeben.
generation-id path Yes string Die ID der Videogenerierung, die für die Azure OpenAI-Anforderung verwendet werden soll.
quality query No

Request Header

Verwenden Sie entweder tokenbasierte Authentifizierung oder API-Schlüssel. Die Authentifizierung mit tokenbasierter Authentifizierung wird empfohlen und sicherer.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Zu generieren Sie ein Authentifizierungstoken mithilfe von Azure CLI: az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
Autorisierungs-URL: https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Umfang: https://ai.azure.com/.default
api-key True string Bereitstellen Azure OpenAI-API-Schlüssels hier

Responses

Statuscode: 200

Beschreibung: Die Anforderung ist erfolgreich.

Statuscode: Standard

Beschreibung: Eine unerwartete Fehlerantwort.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Components

AudioTaskLabel

Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.

Property Value
Description Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten.
Type string
Values transcribe
translate

AudioTranslationSegment

Erweiterte Informationen zu einem einzelnen Segment übersetzter Audiodaten. Segmente stellen in der Regel ungefähr 5-10 Sekunden Sprache dar. Segmentgrenzen treten in der Regel zwischen Wörtern, aber nicht unbedingt Sätzen auf.

Name Type Description Required Default
avg_logprob number Die durchschnittliche Protokollwahrscheinlichkeit, die diesem Audiosegment zugeordnet ist. Yes
compression_ratio number Das Komprimierungsverhältnis dieses Audiosegments. Yes
end number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten endete. Yes
id integer Der 0-basierte Index dieses Segments innerhalb einer Übersetzung. Yes
no_speech_prob number Die Wahrscheinlichkeit, dass innerhalb dieses Audiosegments keine Spracherkennung erkannt wird. Yes
seek integer Die Suchposition, die der Verarbeitung dieses Audiosegments zugeordnet ist.
Suchpositionen werden als Hundertstel Sekunden ausgedrückt.
Das Modell kann mehrere Segmente von einer einzelnen Suchposition verarbeiten, während die Suchposition nie später als der Anfang des Segments dargestellt wird, kann der Anfang des Segments einen erheblich späteren Zeitpunkt als die zugeordnete Suchposition des Segments darstellen.
Yes
start number Die Zeit, zu der dieses Segment relativ zum Anfang der übersetzten Audiodaten begonnen hat. Yes
temperature number Die diesem Audiosegment zugeordnete Temperaturbewertung. Yes
text string Der übersetzte Text, der Teil dieses Audiosegments war. Yes
tokens array Die Token-IDs, die dem übersetzten Text in diesem Audiosegment entsprechen. Yes

AzureAIFoundryModelsApiVersion

Property Value
Type string
Values v1
preview

AzureAudioTranscriptionResponse

Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text transkribiert hat.

Name Type Description Required Default
duration number Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Transkriptionsinformationen zu erzeugen. No
language string Die gesprochene Sprache, die in den transkribierten Audiodaten erkannt wurde.
Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt.
No
segments array Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. No
task object Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. No
text string Der transkribierte Text für die bereitgestellten Audiodaten. Yes
words array Eine Sammlung von Informationen über die Anzeigedauer jedes verarbeiteten Worts. No

AzureAudioTranslationResponse

Ergebnisinformationen für einen Vorgang, der gesprochene Audio in geschriebenen Text übersetzt hat.

Name Type Description Required Default
duration number Die Gesamtdauer der verarbeiteten Audiodaten, um begleitende Übersetzungsinformationen zu erzeugen. No
language string Die gesprochene Sprache, die in den übersetzten Audiodaten erkannt wurde.
Dies wird als zweiseitiger ISO-639-1-Sprachcode wie "en" oder "fr" ausgedrückt.
No
segments array Eine Sammlung von Informationen über das Timing, die Wahrscheinlichkeit und andere Details der einzelnen verarbeiteten Audiosegmente. No
task object Definiert die möglichen Deskriptoren für verfügbare Audiovorgangsantworten. No
text string Der übersetzte Text für die bereitgestellten Audiodaten. Yes

AzureChatCompletionResponseMessage

Die Komponente des erweiterten Antwortmodells für Chatabschlussantwortnachrichten im Azure OpenAI-Dienst. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der ausgeführten Generierung von Abruferweiterungen verwendet werden.

Name Type Description Required Default
annotations array Anmerkungen für die Nachricht, falls zutreffend, wie bei Verwendung des Websuchtools. No
audio object Wenn die Audioausgabemodalitäten angefordert werden, enthält dieses Objekt Daten zur Audioantwort des Modells. No
└─ data string Base64-codierte Audiobytes, die vom Modell generiert wurden, im in der Anforderung angegebenen Format. No
└─ expires_at integer Der Unix-Zeitstempel (in Sekunden) für den Fall, dass diese Audioantwort nicht mehr auf dem Server zur Verwendung in Multi-Turn-Unterhaltungen zugänglich ist. No
└─ id string Eindeutiger Bezeichner für diese Audioantwort. No
└─ transcript string Transkription der vom Modell generierten Audiodaten. No
content string Der Inhalt der Nachricht. Yes
context object Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wurde, die vom Azure OpenAI-Dienst bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data". No
└─ all_retrieved_documents object Zusammenfassungsinformationen zu Dokumenten, die vom Datenempfangsvorgang abgerufen werden. No
└─ chunk_id string Die Block-ID für das Zitat. No
└─ content string Der Inhalt des Zitats. No
└─ data_source_index integer Der Index der Datenquelle, die für den Abruf verwendet wird. No
└─ filepath string Der Dateipfad für das Zitat. No
└─ filter_reason enum Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
No
└─ original_search_score number Die ursprüngliche Suchbewertung für den Abruf. No
└─ rerank_score number Der Rerank-Score für den Abruf. No
└─ search_queries array Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. No
└─ title string Der Titel für das Zitat. No
└─ url string Die URL des Zitats. No
└─ citations array Die Zitate, die vom Datenabruf erzeugt werden. No
└─ intent string Die erkannte Absicht aus dem Chatverlauf, der verwendet wird, um den Unterhaltungskontext zwischen Interaktionen zu tragen No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└─ arguments string No
└─ name string No
reasoning_content string Eine Azure spezifische Erweiterungseigenschaft, die generierten Grundinhalt aus unterstützten Modellen enthält. No
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes
role enum Die Rolle des Autors dieser Nachricht.
Mögliche Werte: assistant
Yes
tool_calls ChatCompletionMessageToolCallsItem Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. No

AzureChatCompletionStreamResponseDelta

Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht im Azure OpenAI-Dienst. Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der ausgeführten Generierung von Abruferweiterungen verwendet werden.

Name Type Description Required Default
audio object No
└─ data string No
└─ expires_at integer No
└─ id string No
└─ transcript string No
content string Der Inhalt der Blocknachricht. No
context object Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wurde, die vom Azure OpenAI-Dienst bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data". No
└─ all_retrieved_documents object Zusammenfassungsinformationen zu Dokumenten, die vom Datenempfangsvorgang abgerufen werden. No
└─ chunk_id string Die Block-ID für das Zitat. No
└─ content string Der Inhalt des Zitats. No
└─ data_source_index integer Der Index der Datenquelle, die für den Abruf verwendet wird. No
└─ filepath string Der Dateipfad für das Zitat. No
└─ filter_reason enum Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
No
└─ original_search_score number Die ursprüngliche Suchbewertung für den Abruf. No
└─ rerank_score number Der Rerank-Score für den Abruf. No
└─ search_queries array Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. No
└─ title string Der Titel für das Zitat. No
└─ url string Die URL des Zitats. No
└─ citations array Die Zitate, die vom Datenabruf erzeugt werden. No
└─ intent string Die erkannte Absicht aus dem Chatverlauf, der verwendet wird, um den Unterhaltungskontext zwischen Interaktionen zu tragen No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└─ arguments string No
└─ name string No
reasoning_content string Eine Azure spezifische Erweiterungseigenschaft, die generierten Grundinhalt aus unterstützten Modellen enthält. No
refusal string Die vom Modell generierte Ablehnungsmeldung. No
role object Die Rolle des Autors einer Nachricht No
tool_calls array No

AzureChatDataSource

Eine Darstellung von Konfigurationsdaten für eine einzelne Azure OpenAI-Chatdatenquelle. Dies wird von einer Chatabschlussanfrage verwendet, die Azure OpenAI-Chaterweiterungen verwenden soll, um das Antwortverhalten zu erweitern. Die Verwendung dieser Konfiguration ist nur mit Azure OpenAI kompatibel.

Diskriminator für AzureChatDataSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Name Type Description Required Default
type object Yes

AzureChatDataSourceAccessTokenAuthenticationOptions

Name Type Description Required Default
access_token string Yes
type enum
Mögliche Werte: access_token
Yes

AzureChatDataSourceApiKeyAuthenticationOptions

Name Type Description Required Default
key string Yes
type enum
Mögliche Werte: api_key
Yes

AzureChatDataSourceAuthenticationOptions

Diskriminator für AzureChatDataSourceAuthenticationOptions

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type AzureChatDataSourceAuthenticationOptionsType Yes

AzureChatDataSourceAuthenticationOptionsType

Property Value
Type string
Values api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Name Type Description Required Default
connection_string string Yes
type enum
Mögliche Werte: connection_string
Yes

AzureChatDataSourceDeploymentNameVectorizationSource

Stellt eine Vektorisierungsquelle dar, die interne Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. Im Gegensatz zur endpunktbasierten Vektorisierungsquelle muss eine bereitstellungsnamebasierte Vektorisierungsquelle Teil derselben Azure OpenAI-Ressource sein, kann aber auch in privaten Netzwerken verwendet werden.

Name Type Description Required Default
deployment_name string Die Bereitstellung des Einbettungsmodells, die für die Vektorisierung verwendet werden soll. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. Yes
dimensions integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
No
type enum Der Typbezeichner, immer "deployment_name" für diesen Vektorisierungsquelltyp.
Mögliche Werte: deployment_name
Yes

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Name Type Description Required Default
encoded_api_key string Yes
type enum
Mögliche Werte: encoded_api_key
Yes

AzureChatDataSourceEndpointVectorizationSource

Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt.

Name Type Description Required Default
authentication object Yes
└─ access_token string No
└─ key string No
└─ type enum
Mögliche Werte: access_token
No
dimensions integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
No
endpoint string Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Er sollte im Format von:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter der API-Version ist nicht zulässig.
Yes
type enum Der Typbezeichner, immer "Endpunkt" für diesen Vektorisierungsquelltyp.
Mögliche Werte: endpoint
Yes

AzureChatDataSourceIntegratedVectorizationSource

Stellt eine integrierte Vektorisierungsquelle dar, die in der unterstützenden Suchressource definiert ist.

Name Type Description Required Default
type enum Der Typbezeichner, immer "integriert" für diesen Vektorisierungsquelltyp.
Mögliche Werte: integrated
Yes

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Name Type Description Required Default
key string Yes
key_id string Yes
type enum
Mögliche Werte: key_and_key_id
Yes

AzureChatDataSourceModelIdVectorizationSource

Stellt eine Vektorisierungsquelle dar, die Dienstaufrufe basierend auf einer Suchdienstmodell-ID vorgibt. Dieser Quelltyp wird derzeit nur von Elasticsearch unterstützt.

Name Type Description Required Default
model_id string Die Einbettungsmodell-Build-ID, die für die Vektorisierung verwendet werden soll. Yes
type enum Der Typbezeichner, immer "model_id" für diesen Vektorisierungsquelltyp.
Mögliche Werte: model_id
Yes

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Name Type Description Required Default
type enum
Mögliche Werte: system_assigned_managed_identity
Yes

AzureChatDataSourceType

Property Value
Type string
Values azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Name Type Description Required Default
managed_identity_resource_id string Yes
type enum
Mögliche Werte: user_assigned_managed_identity
Yes

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Name Type Description Required Default
password string Yes
type enum
Mögliche Werte: username_and_password
Yes
username string Yes

AzureChatDataSourceVectorizationSource

Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann.

Diskriminator für AzureChatDataSourceVectorizationSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Name Type Description Required Default
type object Yes

AzureChatDataSourceVectorizationSourceType

Property Value
Type string
Values endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Eine zusätzliche Eigenschaft, die chat-Abschlussantwortnachrichten hinzugefügt wurde, die vom Azure OpenAI-Dienst bei Verwendung des Erweiterungsverhaltens erstellt werden. Dazu gehören Absichts- und Zitatinformationen aus dem Feature "On Your Data".

Name Type Description Required Default
all_retrieved_documents object Zusammenfassungsinformationen zu Dokumenten, die vom Datenempfangsvorgang abgerufen werden. No
└─ chunk_id string Die Block-ID für das Zitat. No
└─ content string Der Inhalt des Zitats. No
└─ data_source_index integer Der Index der Datenquelle, die für den Abruf verwendet wird. No
└─ filepath string Der Dateipfad für das Zitat. No
└─ filter_reason enum Falls zutreffend, geben Sie an, warum das Dokument gefiltert wurde.
Mögliche Werte: score, rerank
No
└─ original_search_score number Die ursprüngliche Suchbewertung für den Abruf. No
└─ rerank_score number Der Rerank-Score für den Abruf. No
└─ search_queries array Die Zum Abrufen von Dokumenten ausgeführten Suchabfragen. No
└─ title string Der Titel für das Zitat. No
└─ url string Die URL des Zitats. No
citations array Die Zitate, die vom Datenabruf erzeugt werden. No
intent string Die erkannte Absicht aus dem Chatverlauf, der verwendet wird, um den Unterhaltungskontext zwischen Interaktionen zu tragen No

AzureContentFilterBlocklistResult

Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten.

Name Type Description Required Default
details array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. No
filtered boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. Yes

AzureContentFilterCompletionTextSpan

Eine Darstellung einer Spanne von Abschlusstext, wie von Azure OpenAI-Inhaltsfilterergebnissen verwendet.

Name Type Description Required Default
completion_end_offset integer Offset des ersten UTF32-Codepunkts, der von der Spanne ausgeschlossen ist. Dieses Feld ist immer gleich completion_start_offset für leere Spannen. Dieses Feld ist für nicht leere Spannen immer größer als completion_start_offset. Yes
completion_start_offset integer Offset des UTF32-Codepunkts, der die Spanne beginnt. Yes

AzureContentFilterCompletionTextSpanDetectionResult

Name Type Description Required Default
details array Detaillierte Informationen zu den erkannten Abschlusstextabschnitten. Yes
detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Yes
filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Yes

AzureContentFilterCustomTopicResult

Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen.

Name Type Description Required Default
details array Die Paare einzelner Themen-IDs und ob sie erkannt werden. No
filtered boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. Yes

AzureContentFilterDetectionResult

Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde.

Name Type Description Required Default
detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. Yes
filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. Yes

AzureContentFilterImagePromptResults

Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs.

Name Type Description Required Default
custom_blocklists object Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. No
└─ details array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. No
└─ filtered boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. No
custom_topics object Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen. No
└─ details array Die Paare einzelner Themen-IDs und ob sie erkannt werden. No
└─ filtered boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. No
jailbreak object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. Yes
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
profanity object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No

AzureContentFilterImageResponseResults

Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs.

Name Type Description Required Default
hate object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
self_harm object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
sexual object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
violence object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No

AzureContentFilterResultForChoice

Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird.

Name Type Description Required Default
custom_blocklists object Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. No
└─ details array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. No
└─ filtered boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. No
custom_topics object Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen. No
└─ details array Die Paare einzelner Themen-IDs und ob sie erkannt werden. No
└─ filtered boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. No
error object Wenn vorhanden, details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abgeschlossen hat. No
└─ code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. No
└─ message string Eine lesbare Nachricht, die dem Fehler zugeordnet ist. No
hate object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
profanity object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
protected_material_code object Ein Erkennungsergebnis, das eine Übereinstimmung mit lizenziertem Code oder einem anderen geschützten Quellmaterial beschreibt. No
└─ citation object Falls verfügbar, beschreiben die Zitatdetails die zugeordnete Lizenz und den zugehörigen Standort. No
└─ URL string Die mit der Lizenz verknüpfte URL. No
└─ license string Der Name oder die ID der Lizenz, die der Erkennung zugeordnet ist. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
protected_material_text object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
self_harm object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
sexual object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
violence object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No

AzureContentFilterResultForPrompt

Ein Inhaltsfilterergebnis, das einem einzelnen Eingabeaufforderungselement in einem generativen KI-System zugeordnet ist.

Name Type Description Required Default
content_filter_results object Die Inhaltsfilterkategoriedetails für das Ergebnis. No
└─ custom_blocklists object Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Blocklisten. No
└─ details array Die Paare einzelner Blocklisten-IDs und ob sie zu einer Filteraktion geführt haben. No
└─ filtered boolean Ein Wert, der angibt, ob eine der detaillierten Blocklisten zu einer Filteraktion führte. No
└─ custom_topics object Eine Sammlung von True/False-Filterergebnissen für konfigurierte benutzerdefinierte Themen. No
└─ details array Die Paare einzelner Themen-IDs und ob sie erkannt werden. No
└─ filtered boolean Ein Wert, der angibt, ob eines der detaillierten Themen zu einer Filteraktion geführt hat. No
└─ error object Wenn vorhanden, details zu einem Fehler, der verhinderte, dass die Inhaltsfilterung ihre Auswertung abgeschlossen hat. No
└─ code integer Ein eindeutiger, maschinenlesbarer Code, der dem Fehler zugeordnet ist. No
└─ message string Eine lesbare Nachricht, die dem Fehler zugeordnet ist. No
└─ hate object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
└─ indirect_attack object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
└─ jailbreak object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
└─ profanity object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt erkannt wurde und ob der Inhalt gefiltert wurde. No
└─ detected boolean Gibt an, ob die Bezeichnungsinhaltskategorie im Inhalt erkannt wurde. No
└─ filtered boolean Gibt an, ob die Inhaltserkennung zu einer Inhaltsfilteraktion geführt hat. No
└─ self_harm object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
└─ sexual object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
└─ violence object Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde. No
└─ filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. No
└─ severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
No
prompt_index integer Der Index der Eingabeaufforderung, die den zugehörigen Inhaltsfilterergebniskategorien zugeordnet ist. No

AzureContentFilterSeverityResult

Ein beschriftetes Inhaltsfilterergebniselement, das angibt, ob der Inhalt gefiltert wurde und was der qualitative Schweregrad des Inhalts war, wie für die Inhaltsfilterkonfiguration für die Kategorie ausgewertet wurde.

Name Type Description Required Default
filtered boolean Gibt an, ob der Schweregrad des Inhalts zu einer Inhaltsfilteraktion geführt hat. Yes
severity enum Der schweregrad des Inhalts.
Mögliche Werte: safe, , low, mediumhigh
Yes

AzureCosmosDBChatDataSource

Stellt eine Datenquellenkonfiguration dar, die eine Azure CosmosDB-Ressource verwendet.

Name Type Description Required Default
parameters object Die Parameterinformationen zum Steuern der Verwendung der Azure CosmosDB-Datenquelle. Yes
└─ allow_partial_result boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
└─ authentication AzureChatDataSourceConnectionStringAuthenticationOptions No
└─ container_name string No
└─ database_name string No
└─ embedding_dependency AzureChatDataSourceVectorizationSource Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. No
└─ fields_mapping object No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ vector_fields array No
└─ in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. No
└─ include_contexts array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
No ['citations', 'intent']
└─ index_name string No
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
No
└─ strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort.
No
└─ top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. No
type enum Der diskriminierte Typbezeichner, der immer "azure_cosmos_db" ist.
Mögliche Werte: azure_cosmos_db
Yes

AzureCreateChatCompletionRequest

Das erweiterte Anforderungsmodell für Chatabschlusse mit dem Azure OpenAI-Dienst. Dadurch wird die Möglichkeit hinzugefügt, Datenquellen für das Feature "On Your Data" bereitzustellen.

Name Type Description Required Default
audio object Parameter für die Audioausgabe. Erforderlich, wenn die Audioausgabe mit modalities: ["audio"]. No
└─ format enum Gibt das Ausgabeaudioformat an. Muss eine von , , , , wavoder mp3. flacopuspcm16
Mögliche Werte: wav, , aac, mp3flac, , , opuspcm16
No
└─ voice object No
data_sources array Die Datenquellen, die für das Feature "On Your Data" verwendet werden sollen, ausschließlich für Azure OpenAI. No
frequency_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend auf ihrer vorhandenen Häufigkeit im Text bisher und verringern die Wahrscheinlichkeit, dass das Modell dieselbe Zeile wiederholt. No 0
function_call enum Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.
Mögliche Werte: none, auto
No
functions array Veraltet zugunsten von tools.

Eine Liste der Funktionen, für die das Modell JSON-Eingaben generieren kann.
No
logit_bias object Ändern Sie die Wahrscheinlichkeit, dass angegebene Token im Abschluss angezeigt werden.

Akzeptiert ein JSON-Objekt, das Token (angegeben durch ihre Token-ID im Tokenizer) einem zugeordneten Bias-Wert von -100 bis 100 zuordnet. Mathematisch wird der vom Modell generierten Logits vor dem Sampling die Verzerrung hinzugefügt.
Der genaue Effekt variiert je Modell, aber Werte zwischen -1 und 1 sollten die Wahrscheinlichkeit der Auswahl verringern oder erhöhen; Werte wie -100 oder 100 sollten zu einem Verbot oder einer exklusiven Auswahl des relevanten Tokens führen.
No None
logprobs boolean Gibt an, ob Protokollwahrscheinlichkeiten der Ausgabetoken zurückgegeben werden sollen. Wenn wahr, gibt die Protokollwahrscheinlichkeit jedes Ausgabetokens zurück, das in der content von message. No False
max_completion_tokens integer Eine obere Grenze für die Anzahl der Token, die für einen Abschluss generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken. No
max_tokens integer Die maximale Anzahl von Token, die im Chatabschluss generiert werden können.
Dieser Wert kann verwendet werden, um die Kosten für Text zu steuern, der über die API generiert wird.

Dieser Wert ist jetzt zugunsten von max_completion_tokens" veraltet" und ist nicht mit o1-Serienmodellen kompatibel.
No
messages array Eine Liste der Nachrichten, die bisher aus der Unterhaltung bestehen. Abhängig vom verwendeten Modell werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, z. B. Text, Bilder und Audio. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
modalities object Ausgabetypen, die vom Modell generiert werden sollen.
Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]
No
model string Der Modellbereitstellungsbezeichner, der für die Chatabschlussanforderung verwendet werden soll. Yes
n integer Wie viele Chatabschlussoptionen für jede Eingabenachricht generiert werden sollen. Beachten Sie, dass Sie basierend auf der Anzahl der generierten Token für alle Auswahlmöglichkeiten in Rechnung gestellt werden. Halten Sie sich n an die 1 Minimierung der Kosten. No 1
parallel_tool_calls object Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen. No
prediction object Basisdarstellung der vorhergesagten Ausgabe eines Modells. No
└─ type OpenAI.ChatOutputPredictionType No
presence_penalty number Zahl zwischen -2,0 und 2,0. Positive Werte bestrafen neue Token basierend darauf, ob sie bisher im Text angezeigt werden, wodurch die Wahrscheinlichkeit erhöht wird, dass sie über neue Themen sprechen. No 0
reasoning_effort object Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
response_format object No
└─ type enum
Mögliche Werte: text, , json_objectjson_schema
No
seed integer Dieses Feature befindet sich in der Betaversion.
Wenn angegeben, wird unser System eine optimale Leistung unternehmen, um deterministisch zu proben, sodass wiederholte Anforderungen mit demselben seed Und Parameter dasselbe Ergebnis zurückgeben sollten.
Der Determinismus ist nicht garantiert, und Sie sollten auf den system_fingerprint Antwortparameter verweisen, um Änderungen im Back-End zu überwachen.
No
stop object Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu 4 Sequenzen, bei denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.
No
store boolean Gibt an, ob die Ausgabe dieser Chatabschlussanforderung für die Verwendung in der Modelldestillation oder evalsierten Produkten gespeichert werden soll. No False
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. No False
stream_options object Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true. No
└─ include_usage boolean Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array.

Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert. HINWEIS: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.
none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.
auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.
required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.
No
tools array Eine Liste der Tools, die das Modell aufrufen kann. Derzeit werden nur Funktionen als Tool unterstützt. Verwenden Sie diese Funktion, um eine Liste der Funktionen bereitzustellen, für die das Modell MÖGLICHERWEISE JSON-Eingaben generiert. Maximal 128 Funktionen werden unterstützt. No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der dazu beitragen kann, Missbrauch zu überwachen und zu erkennen. No
user_security_context AzureUserSecurityContext Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud. No

AzureCreateChatCompletionResponse

Das erweiterte Antwortmodell für den Abschluss von Chats auf oberster Ebene für den Azure OpenAI-Dienst. Dieses Modell fügt Anmerkungen zum Verantwortlichen KI-Inhaltsfilter für die Eingabeaufforderung hinzu.This model adds Responsible AI content filter annotations for prompt input.

Name Type Description Required Default
choices array Yes
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Yes
id string Ein eindeutiger Bezeichner für den Chatabschluss. Yes
model string Das Modell, das für den Chatabschluss verwendet wird. Yes
object enum Der Objekttyp, der immer chat.completionist.
Mögliche Werte: chat.completion
Yes
prompt_filter_results array Die Anmerkungen zum Verantwortlichen KI-Inhaltsfilter, die mit Aufforderungseingaben in Chatabschlussen verknüpft sind. No
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.

Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
usage OpenAI.CompletionUsage Nutzungsstatistiken für die Abschlussanforderung. No

AzureCreateChatCompletionStreamResponse

Name Type Description Required Default
choices array Eine Liste der Auswahlmöglichkeiten für den Chatabschluss. Kann mehr als ein Element enthalten, wenn n größer als 1 ist. Kann auch für den letzten Block leer sein, wenn Sie festlegen stream_options: {"include_usage": true}. Yes
content_filter_results AzureContentFilterResultForChoice Ein Inhaltsfilterergebnis für ein einzelnes Antwortelement, das von einem generativen KI-System erzeugt wird. No
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Chatabschlusses. Jeder Block hat den gleichen Zeitstempel. Yes
delta AzureChatCompletionStreamResponseDelta Das erweiterte Antwortmodell für eine Streaming-Chatantwortnachricht im Azure OpenAI-Dienst.
Dieses Modell bietet Unterstützung für den Kontext von Chatnachrichten, die vom Feature "On Your Data" für Absichten, Zitate und andere Informationen im Zusammenhang mit der ausgeführten Generierung von Abruferweiterungen verwendet werden.
No
id string Ein eindeutiger Bezeichner für den Chatabschluss. Jeder Block weist die gleiche ID auf. Yes
model string Das Modell, das den Abschluss generiert. Yes
object enum Der Objekttyp, der immer chat.completion.chunkist.
Mögliche Werte: chat.completion.chunk
Yes
system_fingerprint string Dieser Fingerabdruck stellt die Back-End-Konfiguration dar, mit der das Modell ausgeführt wird.
Kann in Verbindung mit dem Anforderungsparameter seed verwendet werden, um zu verstehen, wann Back-End-Änderungen vorgenommen wurden, die sich auf determinismus auswirken können.
No
usage object Nutzungsstatistiken für die Abschlussanforderung. No
└─ completion_tokens integer Anzahl der Token im generierten Abschluss. No 0
└─ completion_tokens_details object Aufschlüsselung der in einem Abschluss verwendeten Token. No
└─ accepted_prediction_tokens integer Bei Verwendung von "Vorhergesagte Ausgaben" gibt es die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. No 0
└─ audio_tokens integer Vom Modell generierte Audioeingabetoken. No 0
└─ reasoning_tokens integer Vom Modell generierte Token zur Begründung. No 0
└─ rejected_prediction_tokens integer Bei Verwendung von vorhergesagten Ausgaben wird die Anzahl der Token in der Vorhersage, die nicht im Abschluss angezeigt wurden. Wie aus Gründen versehene Token werden diese Token jedoch weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. No 0
└─ prompt_tokens integer Anzahl der Token in der Eingabeaufforderung. No 0
└─ prompt_tokens_details object Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. No
└─ audio_tokens integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. No 0
└─ cached_tokens integer Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. No 0
└─ total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). No 0

AzureCreateEmbeddingRequest

Name Type Description Required Default
dimensions integer Die Anzahl der Dimensionen, die die resultierenden Ausgabeeinbettungen aufweisen sollen. Nur in text-embedding-3 und späteren Modellen unterstützt. No
encoding_format enum Das Format, in das die Einbettungen zurückgegeben werden sollen. Kann entweder float oder base64.
Mögliche Werte: float, base64
No
input Zeichenfolge oder Matrix Yes
model string Das Modell, das für die Einbettungsanforderung verwendet werden soll. Yes
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

AzureCreateFileRequestMultiPart

Name Type Description Required Default
expires_after object Yes
└─ anchor AzureFileExpiryAnchor No
└─ seconds integer No
file string Yes
purpose enum Der beabsichtigte Zweck der hochgeladenen Datei. Einer von: - assistants: Wird in der Assistenten-API batchverwendet - : Wird in der Batch-API verwendet - fine-tune: Wird zur Feinabstimmung verwendet - evals: Wird für eval-Datasets verwendet.
Mögliche Werte: assistants, , batch, fine-tuneevals
Yes

AzureCreateImageEditRequestMultiPart

Name Type Description Required Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
No
image Zeichenfolge oder Matrix Yes
mask string No
model string Die Modellbereitstellung, die für den Bildbearbeitungsvorgang verwendet werden soll. Yes
n integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. No 100
output_format enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.
Der Standardwert ist png.
Mögliche Werte: png, , jpegwebp
No
prompt string Eine Textbeschreibung der gewünschten Bilder. Die maximale Länge beträgt 1000 Zeichen für dall-e-2und 32000 Zeichen für gpt-image-1-Serienmodelle. Yes
quality enum Die Qualität des Bilds, das generiert wird. high, medium und low werden nur für Modelle der gpt-image-1Serie unterstützt. dall-e-2 unterstützt standard nur Qualität. Standardwert ist .auto
Mögliche Werte: standard, , lowmedium, , highauto
No
response_format enum Das Format, in dem die generierten Bilder zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird nur für dall-e-2"-series"-Modelle unterstützt, da gpt-image-1base64-codierte Bilder immer zurückgegeben werden.
Mögliche Werte: url, b64_json
No
size enum Die Größe der generierten Bilder. Muss eines von 1024x1024, 1536x1024 (Querformat), 1024x1536 (Hochformat) oder auto (Standardwert) für gpt-image-1-Serienmodelle und eines von 256x256, 512x512oder 1024x1024 für dall-e-2.
Mögliche Werte: 256x256, , 512x512, 1024x10241536x1024, , , 1024x1536auto
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

AzureCreateImageRequest

Name Type Description Required Default
background enum Ermöglicht das Festlegen der Transparenz für den Hintergrund der generierten Bilder.
Dieser Parameter wird nur für gpt-image-1 Modelle unterstützt. Muss einer von transparentoder opaqueauto (Standardwert) sein. Wenn auto das Modell verwendet wird, bestimmt das Modell automatisch den besten Hintergrund für das Bild.

Wenn transparentdas Ausgabeformat Transparenz unterstützen muss, sollte es entweder auf png (Standardwert) oder webpfestgelegt werden.
Mögliche Werte: transparent, , opaqueauto
No
model string Die Modellbereitstellung, die für die Imagegenerierung verwendet werden soll. Yes
moderation enum Steuern Sie die Inhaltsmoderationsebene für Bilder, die von gpt-image-1-Serienmodellen generiert werden. Muss entweder low für weniger restriktive Filterung oder auto (Standardwert) sein.
Mögliche Werte: low, auto
No
n integer Die Anzahl der zu generierenden Bilder. Muss zwischen 1 und 10 sein. Nur für dall-e-3, n=1 wird unterstützt. No 1
output_compression integer Die Komprimierungsebene (0-100%) für die generierten Bilder. Dieser Parameter wird nur für gpt-image-1-Serienmodelle mit den webp Formaten oder jpeg Ausgabeformaten unterstützt und ist standardmäßig auf 100 festgelegt. No 100
output_format enum Das Format, in dem die generierten Bilder zurückgegeben werden. Dieser Parameter wird nur für Modelle der gpt-image-1Serie unterstützt. Muss eine von png, jpeg, oder webp.
Mögliche Werte: png, , jpegwebp
No
prompt string Eine Textbeschreibung der gewünschten Bilder. Yes
quality enum Die Qualität des Bilds, das generiert wird.

- auto (Standardwert) wählt automatisch die beste Qualität für das angegebene Modell aus.
- high, medium und low werden für Modelle der gpt-image-1Serie unterstützt.
- hd und standard werden für dall-e-3.
- standard ist die einzige Option für dall-e-2.
Mögliche Werte: standard, , hd, lowmedium, , , highauto
No
response_format enum Das Format, in dem generierte Bilder mit dall-e-2 und dall-e-3 zurückgegeben werden. Muss eine von url oder b64_json. URLs sind nur 60 Minuten lang gültig, nachdem das Bild generiert wurde. Dieser Parameter wird für gpt-image-1Modelle der Serie nicht unterstützt, die immer base64-codierte Bilder zurückgeben.
Mögliche Werte: url, b64_json
No
size enum Die Größe der generierten Bilder. Muss eine von 1024x1024, (Querformat), 1536x1024 (Hochformat) oder 1024x1536 (Standardwert) für auto-Serienmodelle, eines von gpt-image-1, 256x256, oder 512x512 für 1024x1024, und eine von dall-e-2, 1024x1024oder 1792x1024 für 1024x1792dall-e-3 .
Mögliche Werte: auto, , 1024x1024, 1536x10241024x1536, 256x256, , 512x512, 1792x10241024x1792
No
style enum Die Formatvorlage der generierten Bilder. Dieser Parameter wird nur für dall-e-3. Muss eine von vivid oder natural. Lebendig bewirkt, dass sich das Modell auf die Erzeugung hyper realer und dramatischer Bilder stützt. Natürlich erzeugt das Modell natürlichere, weniger hyper reale Bilder.
Mögliche Werte: vivid, natural
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

AzureCreateResponse

Name Type Description Required Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
include array Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.
- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist).
No
input Zeichenfolge oder Matrix No
instructions string Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Die Modellbereitstellung, die für die Erstellung dieser Antwort verwendet werden soll. Yes
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
prompt object Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ id string Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. No
└─ variables OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. No
└─ version string Optionale Version der Eingabeaufforderungsvorlage. No
reasoning object Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ effort OpenAI.ReasoningEffort Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
└─ generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
└─ summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
store boolean Gibt an, ob die generierte Modellantwort für den späteren Abruf über die API gespeichert werden soll. No True
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. No False
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No 1
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
No
└─ type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern, z. B. die Dateisuche.
- Funktionsaufrufe (benutzerdefinierte Tools):Funktionen, die von Ihnen definiert werden, sodass das Modell Ihren eigenen Code aufrufen kann.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No 1
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No

AzureCreateSpeechRequestMultiPart

Eine Darstellung der Anforderungsoptionen, die das Verhalten eines Text-zu-Sprache-Vorgangs steuern.

Name Type Description Required Default
input string Der Text, für den Audio generiert werden soll. Die maximale Länge beträgt 4096 Zeichen. Yes
instructions string Steuern Sie die Stimme Ihrer generierten Audiodaten mit zusätzlichen Anweisungen. Funktioniert nicht mit tts-1 oder tts-1-hd. No
model string Das Modell, das für diese Text-zu-Sprache-Anforderung verwendet werden soll. Yes
response_format object Die unterstützten Audioausgabeformate für Text-zu-Sprache. No
speed number Die Geschwindigkeit der Spracherkennung für generierte Audiodaten. Werte sind im Bereich von 0,25 bis 4,0 gültig, wobei 1,0 die Standardwerte und höhere Werte, die schnelleren Spracherkennungen entsprechen. No 1
stream_format enum Das Format, in das die Audiodaten gestreamt werden sollen. Unterstützte Formate sind sse und audio. sse wird für tts-1 oder tts-1-hd.
Mögliche Werte: sse, audio
No
voice object Yes

AzureCreateTranscriptionRequestMultiPart

Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Name Type Description Required Default
chunking_strategy object No
└─ prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. No 300
└─ silence_duration_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden).
Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No 200
└─ threshold number Vertraulichkeitsschwellenwert (0,0 bis 1,0) für die Sprachaktivitätserkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. No 0.5
└─ type enum Muss so festgelegt sein, dass server_vad manuelle Blöcke mithilfe der serverseitigen VAD aktiviert werden.
Mögliche Werte: server_vad
No
file string Yes
filename string Der optionale Dateiname oder der beschreibende Bezeichner, der den Audiodaten zugeordnet werden soll. No
include[] array Zusätzliche Informationen, die in die Transkriptionsantwort aufgenommen werden sollen.
logprobs gibt die Protokollwahrscheinlichkeiten der Token in der Antwort zurück, um das Vertrauen des Modells in die Transkription zu verstehen.
logprobs funktioniert nur mit response_format auf json und nur mit den Modellen gpt-4o-transcribe, gpt-4o-transcribe-diarize, , gpt-4o-mini-transcribeund gpt-4o-mini-transcribe-2025-12-15.
No
language string Die Sprache des Eingabeaudios. Durch die Bereitstellung der Eingabesprache in ISO-639-1 (z. B. en) wird die Genauigkeit und Latenz verbessert. No
model string Das Modell, das für diese Transkriptionsanforderung verwendet werden soll. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte mit der Audiosprache übereinstimmen. No
response_format object No
stream boolean Wenn dieser Wert auf "true" festgelegt ist, werden die Modellantwortdaten an den Client gestreamt, da sie mithilfe von Server gesendeten Ereignissen generiert wird. Hinweis: Streaming wird für das whisper-1 Modell nicht unterstützt und wird ignoriert. No False
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0
timestamp_granularities[] array Die Zeitstempel-Granularitäten, die für diese Transkription aufgefüllt werden sollen. response_format muss für die Verwendung von Timestamp-Granularitäten festgelegt verbose_json werden. Entweder oder beide dieser Optionen werden unterstützt: wordoder segment. Hinweis: Es gibt keine zusätzliche Latenz für Segmentzeitstempel, aber das Generieren von Wortzeitstempeln verursacht zusätzliche Latenz. No ['segment']

AzureCreateTranslationRequestMultiPart

Die Konfigurationsinformationen für eine Audiotranskriptionsanforderung.

Name Type Description Required Default
file string Yes
filename string Optionaler Dateiname oder beschreibender Bezeichner, der den Audiodaten zugeordnet werden soll No
model string Das Modell, das für diese Übersetzungsanforderung verwendet werden soll. No
prompt string Optionaler Text zum Leiten der Formatvorlage des Modells oder Fortsetzen eines vorherigen Audiosegments. Die Eingabeaufforderung sollte in Englisch sein. No
response_format object No
temperature number Die Probenahmetemperatur zwischen 0 und 1. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen. Bei Festlegung auf 0 verwendet das Modell die Protokollwahrscheinlichkeit , um die Temperatur automatisch zu erhöhen, bis bestimmte Schwellenwerte erreicht werden. No 0

AzureErrorResponse

Name Type Description Required Default
error object Die Fehlerdetails. No
└─ code string Der eindeutige, vom Computer generierte Bezeichner für den Fehler. No
└─ inner_error No
└─ message string Eine lesbare Nachricht, die dem Fehler zugeordnet ist. No
└─ param string Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter No
└─ type enum Der Objekttyp, immer 'error'.
Mögliche Werte: error
No

AzureEvalAPICompletionsSamplingParams

Name Type Description Required Default
parallel_tool_calls boolean No
response_format OpenAI.ResponseTextFormatConfiguration No
tools array No

AzureEvalAPIModelSamplingParams

Name Type Description Required Default
max_tokens integer Die maximale Anzahl von Token in der generierten Ausgabe. No
reasoning_effort enum Steuert die Ebene der während der Generation angewendeten Gründe.
Mögliche Werte: low, , mediumhigh
No
seed integer Ein Ausgangswert zum Initialisieren der Zufallsmuster während der Probenahme. No
temperature number Eine höhere Temperatur erhöht die Zufallszahlen in den Ausgaben. No
top_p number Eine Alternative zur Temperatur für kernsampling; 1.0 enthält alle Token. No

AzureEvalAPIResponseSamplingParams

Name Type Description Required Default
parallel_tool_calls boolean No
response_format OpenAI.ResponseTextFormatConfiguration No
tools array No

AzureFileExpiryAnchor

Property Value
Type string
Values created_at

AzureFineTuneReinforcementMethod

Name Type Description Required Default
grader object Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Yes
└─ calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. No
└─ evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
No
└─ graders object No
└─ input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. No
└─ model string Das Modell, das für die Auswertung verwendet werden soll. No
└─ name string Der Name des Graders. No
└─ operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
No
└─ range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
└─ reference string Der Text, der abgestuft wird. No
└─ sampling_params Die Samplingparameter für das Modell. No
└─ type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
No
hyperparameters OpenAI.FineTuneReinforcementHyperparameters Die Hyperparameter, die für den Verstärkungs-Feinabstimmungsauftrag verwendet werden. No
response_format object No
└─ json_schema object JSON-Schema für das Antwortformat No
└─ type enum Typ des Antwortformats.
Mögliche Werte: json_schema
No

AzureImage

Name Type Description Required Default
b64_json string Der base64-codierte JSON-Code des generierten Bilds. Standardwert für gpt-image-1-Serienmodelle und nur vorhanden, wenn response_formatb64_jsondall-e-2 für und .dall-e-3 No
content_filter_results AzureContentFilterImageResponseResults Ein Inhaltsfilterergebnis für den Ausgabeantwortinhalt eines Bildgenerierungsvorgangs. Yes
prompt_filter_results AzureContentFilterImagePromptResults Ein Inhaltsfilterergebnis für den Eingabeanforderungsinhalt eines Bildgenerierungsvorgangs. Yes
revised_prompt string Nur dall-e-3 die überarbeitete Eingabeaufforderung, die zum Generieren des Bilds verwendet wurde. No
url string Bei Verwendung dall-e-2 oder dall-e-3, wenn die URL des generierten Bilds response_format festgelegt url ist (Standardwert). Wird für Modelle der gpt-image-1Serie nicht unterstützt. No

AzureImagesResponse

Name Type Description Required Default
background enum NUR GPT-image-1: Der Hintergrundparameter, der für die Bildgenerierung verwendet wird. Entweder transparent oder opaque.
Mögliche Werte: transparent, opaque
No
created integer Der Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung des Bilds. Yes
data array No
output_format enum Das Ausgabeformat der Bildgenerierung. Entweder png, , webpoder jpeg.
Mögliche Werte: png, , webpjpeg
No
quality enum Die Qualität des generierten Bilds. Entweder low, , mediumoder high.
Mögliche Werte: low, , mediumhigh
No
size enum Die Größe des generierten Bilds. Entweder 1024x1024, , 1024x1536oder 1536x1024.
Mögliche Werte: 1024x1024, , 1024x15361536x1024
No
usage object Nur bei gpt-image-1Modellen der Serie werden die Tokenverwendungsinformationen für die Bildgenerierung angegeben. No
└─ input_tokens integer Die Anzahl der Token (Bilder und Text) in der Eingabeaufforderung. No
└─ input_tokens_details object Die Eingabetoken enthalten detaillierte Informationen für die Bildgenerierung. No
└─ image_tokens integer Die Anzahl der Bildtoken in der Eingabeaufforderung. No
└─ text_tokens integer Die Anzahl der Texttoken in der Eingabeaufforderung. No
└─ output_tokens integer Die Anzahl der Bildtoken im Ausgabebild. No
└─ total_tokens integer Die Gesamtzahl der Token (Bilder und Text), die für die Bildgenerierung verwendet werden. No

AzureListFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object enum
Mögliche Werte: list
Yes

AzureOpenAIFile

Name Type Description Required Default
bytes integer Die Größe der Datei in Byte. Yes
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Datei. Yes
expires_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, an dem die Datei abläuft. No
filename string Der Name der Datei. Yes
id string Der Dateibezeichner, auf den in den API-Endpunkten verwiesen werden kann. Yes
object enum Der Objekttyp, der immer fileist.
Mögliche Werte: file
Yes
purpose enum Der beabsichtigte Zweck der Datei. Unterstützte Werte sind assistants, , assistants_output, batch, batch_outputfine-tuneund fine-tune-results.
Mögliche Werte: assistants, , assistants_output, batchbatch_output, fine-tune, , , fine-tune-resultsevals
Yes
status enum
Mögliche Werte: uploaded, , pending, runningprocessed, error, , , deletingdeleted
Yes
status_details string Deprecated. Ausführliche Informationen dazu, warum bei der Überprüfung einer Feinabstimmungsdatei ein Fehler aufgetreten ist, finden Sie im error Feld zu fine_tuning.job. No

AzureOpenAIVideoGenerationErrorResponse

Name Type Description Required Default
code string Der eindeutige, vom Computer generierte Bezeichner für den Fehler. No
inner_error object Falls zutreffend, ein Upstreamfehler, der diesen Fehler verursacht hat. No
└─ code enum Der code, der dem inneren Fehler zugeordnet ist.
Mögliche Werte: ResponsibleAIPolicyViolation
No
└─ error_details Die Ergebnisdetails des Inhaltsfilters, die dem inneren Fehler zugeordnet sind. No
└─ revised_prompt string Falls zutreffend, wird die geänderte Aufforderung zur Generierung verwendet. No
message string Eine lesbare Nachricht, die dem Fehler zugeordnet ist. No
param string Falls zutreffend, der dem Fehler zugeordnete Anforderungseingabeparameter No
type string Falls zutreffend, wird die dem Fehler zugeordnete Eingabezeilennummer zugeordnet. No

AzureResponse

Name Type Description Required Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Yes
error object Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Yes
└─ code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. No
└─ message string Eine lesbare Beschreibung des Fehlers. No
id string Eindeutiger Bezeichner für diese Antwort. Yes
incomplete_details object Details dazu, warum die Antwort unvollständig ist. Yes
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
instructions Zeichenfolge oder Matrix Yes
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
model string Das Modell, das zum Generieren dieser Antwort verwendet wird. Yes
object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
Yes
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Yes
output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Yes True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
prompt object Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ id string Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. No
└─ variables OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. No
└─ version string Optionale Version der Eingabeaufforderungsvorlage. No
reasoning object Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ effort OpenAI.ReasoningEffort Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
└─ generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
└─ summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Yes
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
No
└─ type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Yes
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Yes

AzureSearchChatDataSource

Stellt eine Datenquellenkonfiguration dar, die eine Azure Suchressource verwendet.

Name Type Description Required Default
parameters object Die Parameterinformationen zum Steuern der Verwendung der Azure Suchdatenquelle. Yes
└─ allow_partial_result boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
└─ authentication object No
└─ access_token string No
└─ key string No
└─ managed_identity_resource_id string No
└─ type enum
Mögliche Werte: access_token
No
└─ embedding_dependency object Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. No
└─ authentication AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions Der Authentifizierungsmechanismus, der mit der endpunktbasierten Vektorisierungsquelle verwendet werden soll.
Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen.
No
└─ deployment_name string Die Bereitstellung des Einbettungsmodells, die für die Vektorisierung verwendet werden soll. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. No
└─ dimensions integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
No
└─ endpoint string Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Er sollte im Format von:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter der API-Version ist nicht zulässig.
No
└─ type enum Der Typbezeichner, immer "integriert" für diesen Vektorisierungsquelltyp.
Mögliche Werte: integrated
No
└─ endpoint string Der absolute Endpunktpfad für die zu verwendende Azure Suchressource. No
└─ fields_mapping object Die Feldzuordnungen, die mit der Azure Suchressource verwendet werden sollen. No
└─ content_fields array Die Namen von Indexfeldern, die als Inhalt behandelt werden sollen. No
└─ content_fields_separator string Das Trennmuster, das Inhaltsfelder verwenden sollen. No
└─ filepath_field string Der Name des Indexfelds, das als Dateipfad verwendet werden soll. No
└─ image_vector_fields array Die Namen von Feldern, die Bildvektordaten darstellen. No
└─ title_field string Der Name des Indexfelds, das als Titel verwendet werden soll. No
└─ url_field string Der Name des Indexfelds, das als URL verwendet werden soll. No
└─ vector_fields array Die Namen von Feldern, die Vektordaten darstellen. No
└─ filter string Ein Filter, der auf die Suche angewendet werden soll. No
└─ in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. No
└─ include_contexts array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
No ['citations', 'intent']
└─ index_name string Der Name des zu verwendenden Indexes, wie in der Azure Suchressource angegeben. No
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
No
└─ query_type enum Der Abfragetyp für die zu verwendende Azure Suchressource.
Mögliche Werte: simple, , semanticvector, , vector_simple_hybridvector_semantic_hybrid
No
└─ semantic_configuration string Zusätzliche semantische Konfiguration für die Abfrage. No
└─ strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort.
No
└─ top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. No
type enum Der diskriminierte Typbezeichner, der immer "azure_search" ist.
Mögliche Werte: azure_search
Yes

AzureUserSecurityContext

Der Benutzersicherheitskontext enthält mehrere Parameter, die die Anwendung selbst beschreiben, und den Endbenutzer, der mit der Anwendung interagiert. Diese Felder unterstützen Ihre Sicherheitsteams, Sicherheitsvorfälle zu untersuchen und zu mindern, indem sie einen umfassenden Ansatz zum Schutz Ihrer KI-Anwendungen bieten. Learn more zum Schutz von KI-Anwendungen mit Microsoft Defender for Cloud.

Name Type Description Required Default
application_name string Der Name der Anwendung. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. No
end_user_id string Dieser Bezeichner ist die Microsoft Entra ID (früher Azure Active Directory) Benutzerobjekt-ID, die zur Authentifizierung von Endbenutzern innerhalb der generativen KI-Anwendung verwendet wird. Vertrauliche persönliche Informationen sollten in diesem Feld nicht enthalten sein. No
end_user_tenant_id string Die Microsoft 365 Mandanten-ID, zu der der Endbenutzer gehört. Es ist erforderlich, wenn die generative KI-Anwendung multitenant ist. No
source_ip string Erfasst die IP-Adresse des ursprünglichen Clients. No

ChatCompletionMessageToolCallsItem

Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe.

Array von: OpenAI.ChatCompletionMessageToolCall

CreateVideoGenerationRequest

Name Type Description Required Default
height integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes
model string Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. Yes
n_seconds integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. No 5
n_variants integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. No 1
prompt string Die Aufforderung für diesen Auftrag zur Videogenerierung. Yes
width integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes

CreateVideoGenerationWithMediaRequestMultiPart

Die Eigenschaften einer Auftragsanforderung für die Videogenerierung mit Mediendateien.

Name Type Description Required Default
files array Yes
height integer Die Höhe des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes
inpaint_items array Optionale Inpaintingelemente für diesen Videogenerierungsauftrag. No
model string Der Name der Bereitstellung, die für diese Anforderung verwendet werden soll. Yes
n_seconds integer Die Dauer des Auftrags zur Videogenerierung. Muss zwischen 1 und 20 Sekunden betragen. No 5
n_variants integer Die Anzahl der Videos, die als Varianten für diesen Auftrag erstellt werden sollen. Muss zwischen 1 und 5 sein. Kleinere Abmessungen ermöglichen mehr Varianten. No 1
prompt string Die Aufforderung für diesen Auftrag zur Videogenerierung. Yes
width integer Die Breite des Videos. Die folgenden Dimensionen werden unterstützt: 480x480, 854x480, 720x720, 1280x720, 1080x1080 und 1920x1080 sowohl im Quer- als auch im Hochformat. Yes

CropBounds

Die Zuschneidegrenzen für ein inpaintierendes Element. Dadurch wird der Bereich des Medienelements angegeben, der für die Inpaintierung verwendet werden soll.

Name Type Description Required Default
bottom_fraction number Die untere Grenze des Zuschneidefelds, das als Bruch der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. No 1
left_fraction number Die linke Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. No 0
right_fraction number Die rechte Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. No 1
top_fraction number Die obere Begrenzung des Zuschneidefelds, das als Bruchteil der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. No 0

ElasticsearchChatDataSource

Name Type Description Required Default
parameters object Die Parameterinformationen zum Steuern der Verwendung der Elasticsearch-Datenquelle. Yes
└─ allow_partial_result boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
└─ authentication object No
└─ encoded_api_key string No
└─ key string No
└─ key_id string No
└─ type enum
Mögliche Werte: encoded_api_key
No
└─ embedding_dependency AzureChatDataSourceVectorizationSource Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. No
└─ endpoint string No
└─ fields_mapping object No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ vector_fields array No
└─ in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. No
└─ include_contexts array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
No ['citations', 'intent']
└─ index_name string No
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
No
└─ query_type enum
Mögliche Werte: simple, vector
No
└─ strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort.
No
└─ top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. No
type enum Der diskriminierte Typbezeichner, der immer "elasticsearch" ist.
Mögliche Werte: elasticsearch
Yes

InpaintItem

Ein inpaintierendes Element für einen Auftrag zur Videogenerierung. Dadurch wird das Medienelement angegeben, das für die Inpaintierung in der Videogenerierung verwendet werden soll.

Name Type Description Required Default
crop_bounds object Die Zuschneidegrenzen für ein inpaintierendes Element.
Dadurch wird der Bereich des Medienelements angegeben, der für die Inpaintierung verwendet werden soll.
No
└─ bottom_fraction number Die untere Grenze des Zuschneidefelds, das als Bruch der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. No 1
└─ left_fraction number Die linke Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. No 0
└─ right_fraction number Die rechte Begrenzung des Zuschneidefelds, das als Bruchteil der Breite des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Breite des ursprünglichen Medienelements. No 1
└─ top_fraction number Die obere Begrenzung des Zuschneidefelds, das als Bruchteil der Höhe des ursprünglichen Medienelements angegeben ist. Muss zwischen 0,0 und 1,0 sein. Verwenden Sie z. B. 0,5 für die Hälfte der Höhe des ursprünglichen Medienelements. No 0
file_name string Der Dateiname des Medienelements. Er muss mit dem Dateinamen einer Dateianlage in dieser Anforderung übereinstimmen. Yes
frame_index integer Der Frameindex für dieses Medienelement. Dadurch wird der Startframe im resultierenden generierten Video für dieses inpainting-Element angegeben. Yes 0
type object Der Typ des inpainting-Elements. Yes

JobStatus

Der Status eines Auftrags zur Videogenerierung.

Property Value
Description Der Status eines Auftrags zur Videogenerierung.
Type string
Values preprocessing
queued
running
processing
cancelled
succeeded
failed

MediaItemType

Der Typ des inpainting-Elements.

Property Value
Description Der Typ des inpainting-Elements.
Type string
Values image

MongoDBChatDataSource

Name Type Description Required Default
parameters object Die Parameterinformationen zum Steuern der Verwendung der MongoDB-Datenquelle. Yes
└─ allow_partial_result boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
└─ app_name string Der Name der MongoDB-Anwendung. No
└─ authentication object No
└─ password string No
└─ type enum
Mögliche Werte: username_and_password
No
└─ username string No
└─ collection_name string Der Name der MongoDB-Auflistung. No
└─ database_name string Der Name der MongoDB-Datenbank. No
└─ embedding_dependency object Stellt eine Vektorisierungsquelle dar, die öffentliche Dienstaufrufe für eine Azure OpenAI-Einbettungsmodellbereitstellung ausführt. No
└─ authentication AzureChatDataSourceApiKeyAuthenticationOptions oder AzureChatDataSourceAccessTokenAuthenticationOptions Der Authentifizierungsmechanismus, der mit der endpunktbasierten Vektorisierungsquelle verwendet werden soll.
Die Endpunktauthentifizierung unterstützt API-Schlüssel- und Zugriffstokenmechanismen.
No
└─ deployment_name string Die Bereitstellung des Einbettungsmodells, die für die Vektorisierung verwendet werden soll. Diese Bereitstellung muss innerhalb derselben Azure OpenAI-Ressource vorhanden sein wie die Modellbereitstellung, die für Chatabschlusse verwendet wird. No
└─ dimensions integer Die Anzahl der Dimensionen, die bei Einbettungen angefordert werden sollen.
Wird nur in "text-embedding-3" und späteren Modellen unterstützt.
No
└─ endpoint string Gibt die Ressourcenendpunkt-URL an, aus der Einbettungen abgerufen werden sollen.
Er sollte im Format von:
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Der Abfrageparameter der API-Version ist nicht zulässig.
No
└─ type enum Der Typbezeichner, immer "deployment_name" für diesen Vektorisierungsquelltyp.
Mögliche Werte: deployment_name
No
└─ endpoint string Der Name des MongoDB-Clusterendpunkts. No
└─ fields_mapping object Feldzuordnungen, die auf daten angewendet werden, die von der MongoDB-Datenquelle verwendet werden.
Beachten Sie, dass Für MongoDB Inhalts- und Vektorfeldzuordnungen erforderlich sind.
No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ vector_fields array No
└─ in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. No
└─ include_contexts array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
No ['citations', 'intent']
└─ index_name string Der Name des MongoDB-Indexes. No
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
No
└─ strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort.
No
└─ top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. No
type enum Der diskriminierte Typbezeichner, der immer "mongo_db" ist.
Mögliche Werte: mongo_db
Yes

OpenAI.Annotation

Diskriminator für OpenAI.Annotation

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Type Description Required Default
type OpenAI.AnnotationType Yes

OpenAI.AnnotationFileCitation

Ein Zitat für eine Datei.

Name Type Description Required Default
file_id string Die ID der Datei. Yes
filename string Der Dateiname der zitierten Datei. Yes
index integer Der Index der Datei in der Liste der Dateien. Yes
type enum Der Typ des Dateizitats. Immer file_citation.
Mögliche Werte: file_citation
Yes

OpenAI.AnnotationFilePath

Ein Pfad zu einer Datei.

Name Type Description Required Default
file_id string Die ID der Datei. Yes
index integer Der Index der Datei in der Liste der Dateien. Yes
type enum Der Typ des Dateipfads. Immer file_path.
Mögliche Werte: file_path
Yes

OpenAI.AnnotationType

Property Value
Type string
Values file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Ein Zitat für eine Webressource, das zum Generieren einer Modellantwort verwendet wird.

Name Type Description Required Default
end_index integer Der Index des letzten Zeichens des URL-Zitats in der Nachricht. Yes
start_index integer Der Index des ersten Zeichens des URL-Zitats in der Nachricht. Yes
title string Der Titel der Webressource. Yes
type enum Der Typ des URL-Zitats. Immer url_citation.
Mögliche Werte: url_citation
Yes
url string Die URL der Webressource. Yes

OpenAI.ApproximateLocation

Name Type Description Required Default
city string No
country string No
region string No
timezone string No
type enum
Mögliche Werte: approximate
Yes

OpenAI.AudioResponseFormat

Das Format der Ausgabe in einer der folgenden Optionen: json, , text, , srt, verbose_jsonoder vtt. Für gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15. Das einzige unterstützte Format ist json.

Property Value
Description Das Format der Ausgabe in einer der folgenden Optionen: json, , text, , srt, verbose_jsonoder vtt. Für gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, und gpt-4o-mini-transcribe-2025-12-15. Das einzige unterstützte Format ist json.
Type string
Values json
text
srt
verbose_json
vtt

OpenAI.AutoChunkingStrategyRequestParam

Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400.

Name Type Description Required Default
type enum Immer auto.
Mögliche Werte: auto
Yes

OpenAI.ChatCompletionFunctionCallOption

Durch Angeben einer bestimmten Funktion wird {"name": "my_function"} das Modell gezwungen, diese Funktion aufzurufen.

Name Type Description Required Default
name string Der Name der funktion, die aufgerufen werden soll. Yes

OpenAI.ChatCompletionFunctions

Name Type Description Required Default
description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
parameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden.
Eine Dokumentation zum Format finden Sie in der JSON-Schemareferenz .

Durch Weglassen parameters wird eine Funktion mit einer leeren Parameterliste definiert.
No

OpenAI.ChatCompletionMessageAudioChunk

Name Type Description Required Default
data string No
expires_at integer No
id string No
transcript string No

OpenAI.ChatCompletionMessageToolCall

Name Type Description Required Default
function object Die Funktion, die das Modell aufgerufen hat. Yes
└─ arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
id string Die ID des Toolaufrufs. Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

OpenAI.ChatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Die Argumente, mit der die Funktion aufgerufen werden soll, wie vom Modell im JSON-Format generiert. Beachten Sie, dass das Modell nicht immer gültige JSON-Werte generiert und möglicherweise nicht durch Ihr Funktionsschema definierte Halluzinatenparameter enthält. Überprüfen Sie die Argumente im Code, bevor Sie Die Funktion aufrufen. No
└─ name string Der Name der funktion, die aufgerufen werden soll. No
id string Die ID des Toolaufrufs. No
index integer Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
No

OpenAI.ChatCompletionNamedToolChoice

Gibt ein Tool an, das das Modell verwenden soll. Wird verwendet, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
function object Yes
└─ name string Der Name der funktion, die aufgerufen werden soll. No
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

OpenAI.ChatCompletionRequestAssistantMessage

Nachrichten, die vom Modell als Reaktion auf Benutzernachrichten gesendet werden.

Name Type Description Required Default
audio object Daten zu einer vorherigen Audioantwort aus dem Modell. No
└─ id string Eindeutiger Bezeichner für eine vorherige Audioantwort des Modells. No
content Zeichenfolge oder Matrix No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└─ arguments string No
└─ name string No
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
refusal string Die Ablehnungsnachricht des Assistenten. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall assistant.
Mögliche Werte: assistant
Yes
tool_calls ChatCompletionMessageToolCallsItem Das Tool ruft vom Modell generierte Aufrufe auf, z. B. Funktionsaufrufe. No

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Name Type Description Required Default
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes
text string Der Textinhalt. Yes
type enum Der Typ des Inhaltsteils.
Mögliche Werte: refusal
Yes

OpenAI.ChatCompletionRequestDeveloperMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von nachrichten, die vom Benutzer gesendet wurden. Bei o1-Modellen und neueren developer Nachrichten ersetzen Nachrichten die vorherigen system Nachrichten.

Name Type Description Required Default
content Zeichenfolge oder Matrix Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall developer.
Mögliche Werte: developer
Yes

OpenAI.ChatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Der Inhalt der Funktionsmeldung. Yes
name string Der Name der funktion, die aufgerufen werden soll. Yes
role enum Die Rolle des Autors von Nachrichten in diesem Fall function.
Mögliche Werte: function
Yes

OpenAI.ChatCompletionRequestMessage

Diskriminator für OpenAI.ChatCompletionRequestMessage

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Name Type Description Required Default
content Zeichenfolge oder Matrix No
role object Die Rolle des Autors einer Nachricht Yes

OpenAI.ChatCompletionRequestMessageContentPart

Diskriminator für OpenAI.ChatCompletionRequestMessageContentPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Name Type Description Required Default
type OpenAI.ChatCompletionRequestMessageContentPartType Yes

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Base64-codierte Audiodaten. No
└─ format enum Das Format der codierten Audiodaten. Unterstützt derzeit "wav" und "mp3".
Mögliche Werte: wav, mp3
No
type enum Der Typ des Inhaltsteils. Immer input_audio.
Mögliche Werte: input_audio
Yes

OpenAI.ChatCompletionRequestMessageContentPartFile

Name Type Description Required Default
file object Yes
└─ file_data string Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet werden. No
└─ file_id string Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. No
└─ filename string Der Name der Datei, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet wird. No
type enum Der Typ des Inhaltsteils. Immer file.
Mögliche Werte: file
Yes

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Gibt die Detailebene des Bilds an.
Mögliche Werte: auto, , lowhigh
No
└─ url string Entweder eine URL des Bilds oder die base64-codierten Bilddaten. No
type enum Der Typ des Inhaltsteils.
Mögliche Werte: image_url
Yes

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Die vom Modell generierte Ablehnungsmeldung. Yes
type enum Der Typ des Inhaltsteils.
Mögliche Werte: refusal
Yes

OpenAI.ChatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Der Textinhalt. Yes
type enum Der Typ des Inhaltsteils.
Mögliche Werte: text
Yes

OpenAI.ChatCompletionRequestMessageContentPartType

Property Value
Type string
Values text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Vom Entwickler bereitgestellte Anweisungen, die das Modell befolgen sollte, unabhängig von nachrichten, die vom Benutzer gesendet wurden. Verwenden Sie developer mit o1-Modellen und neueren Nachrichten stattdessen Nachrichten.

Name Type Description Required Default
content Zeichenfolge oder Matrix Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall system.
Mögliche Werte: system
Yes

OpenAI.ChatCompletionRequestSystemMessageContentPart

References: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Yes
role enum Die Rolle des Autors von Nachrichten in diesem Fall tool.
Mögliche Werte: tool
Yes
tool_call_id string Toolaufruf, auf den diese Nachricht reagiert. Yes

OpenAI.ChatCompletionRequestToolMessageContentPart

References: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Von einem Endbenutzer gesendete Nachrichten, die Eingabeaufforderungen oder zusätzliche Kontextinformationen enthalten.

Name Type Description Required Default
content Zeichenfolge oder Matrix Yes
name string Optionaler Name für den Teilnehmer. Stellt die Modellinformationen bereit, um zwischen den Teilnehmern derselben Rolle zu unterscheiden. No
role enum Die Rolle des Autors von Nachrichten in diesem Fall user.
Mögliche Werte: user
Yes

OpenAI.ChatCompletionRequestUserMessageContentPart

Name Type Description Required Default
file object Yes
└─ file_data string Die base64-codierten Dateidaten, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet werden. No
└─ file_id string Die ID einer hochgeladenen Datei, die als Eingabe verwendet werden soll. No
└─ filename string Der Name der Datei, die beim Übergeben der Datei an das Modell als Zeichenfolge verwendet wird. No
image_url object Yes
└─ detail enum Gibt die Detailebene des Bilds an.
Mögliche Werte: auto, , lowhigh
No
└─ url string Entweder eine URL des Bilds oder die base64-codierten Bilddaten. No
input_audio object Yes
└─ data string Base64-codierte Audiodaten. No
└─ format enum Das Format der codierten Audiodaten. Unterstützt derzeit "wav" und "mp3".
Mögliche Werte: wav, mp3
No
text string Der Textinhalt. Yes
type enum Der Typ des Inhaltsteils. Immer file.
Mögliche Werte: file
Yes

OpenAI.ChatCompletionRole

Die Rolle des Autors einer Nachricht

Property Value
Description Die Rolle des Autors einer Nachricht
Type string
Values system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Optionen für die Streamingantwort. Legen Sie dies nur fest, wenn Sie festlegen stream: true.

Name Type Description Required Default
include_usage boolean Bei Festlegung wird ein zusätzlicher Block vor der data: [DONE] Nachricht gestreamt. Das usage Feld in diesem Abschnitt zeigt die Tokenverwendungsstatistiken für die gesamte Anforderung an, und das choices Feld ist immer ein leeres Array.

Alle anderen Blöcke enthalten auch ein usage Feld, aber mit einem Nullwert. HINWEIS: Wenn der Datenstrom unterbrochen wird, erhalten Sie möglicherweise nicht den endgültigen Verwendungsabschnitt, der die gesamte Tokenverwendung für die Anforderung enthält.
No

OpenAI.ChatCompletionStreamResponseDelta

Ein Chat-Vervollständigungsdelta, das von streamten Modellantworten generiert wurde.

Name Type Description Required Default
audio object No
└─ data string No
└─ expires_at integer No
└─ id string No
└─ transcript string No
content string Der Inhalt der Blocknachricht. No
function_call object Veraltet und ersetzt durch tool_calls. Der Name und die Argumente einer Funktion, die aufgerufen werden soll, wie vom Modell generiert. No
└─ arguments string No
└─ name string No
refusal string Die vom Modell generierte Ablehnungsmeldung. No
role object Die Rolle des Autors einer Nachricht No
tool_calls array No

OpenAI.ChatCompletionTokenLogprob

Name Type Description Required Default
bytes array Eine Liste der ganzzahligen Zahlen, die die UTF-8 Bytes-Darstellung des Tokens darstellen. Nützlich in Fällen, in denen Zeichen durch mehrere Token dargestellt werden, und ihre Bytedarstellungen müssen kombiniert werden, um die richtige Textdarstellung zu generieren. Kann sein null , wenn für das Token keine Bytedarstellung vorhanden ist. Yes
logprob number Die Protokollwahrscheinlichkeit dieses Tokens, wenn es sich innerhalb der obersten 20 höchstwahrscheinlichen Token befindet. Andernfalls wird der Wert -9999.0 verwendet, um zu kennzeichnen, dass das Token sehr unwahrscheinlich ist. Yes
token string The token. Yes
top_logprobs array Liste der höchstwahrscheinlichen Token und deren Protokollwahrscheinlichkeit an dieser Tokenposition. In seltenen Fällen kann es weniger als die Anzahl der angeforderten top_logprobs Rückgaben geben. Yes

OpenAI.ChatCompletionTool

Name Type Description Required Default
function OpenAI.FunctionObject Yes
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

OpenAI.ChatCompletionToolChoiceOption

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird. none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert. auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann. required bedeutet, dass das Modell mindestens ein Tools aufrufen muss. Wenn Sie ein bestimmtes Tool über {"type": "function", "function": {"name": "my_function"}} das Modell angeben, wird das Modell gezwungen, dieses Tool aufzurufen.

none ist die Standardeinstellung, wenn keine Tools vorhanden sind. auto ist die Standardeinstellung, wenn Tools vorhanden sind.

Name Type Description Required Default
function object Yes
└─ name string Der Name der funktion, die aufgerufen werden soll. No
type enum Der Typ des Tools. Derzeit wird nur function unterstützt.
Mögliche Werte: function
Yes

OpenAI.ChatOutputPrediction

Basisdarstellung der vorhergesagten Ausgabe eines Modells.

Diskriminator für OpenAI.ChatOutputPrediction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
content OpenAI.ChatOutputPredictionContent
Name Type Description Required Default
type OpenAI.ChatOutputPredictionType Yes

OpenAI.ChatOutputPredictionContent

Statischer vorhergesagter Ausgabeinhalt, z. B. der Inhalt einer Textdatei, die neu generiert wird.

Name Type Description Required Default
content Zeichenfolge oder Matrix Yes
type enum Der Typ des vorhergesagten Inhalts, den Sie bereitstellen möchten. Dieser Typ ist derzeit immer content.
Mögliche Werte: content
Yes

OpenAI.ChatOutputPredictionType

Property Value
Type string
Values content

OpenAI.ChunkingStrategyRequestParam

Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet.

Diskriminator für OpenAI.ChunkingStrategyRequestParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
static OpenAI.StaticChunkingStrategyRequestParam
Name Type Description Required Default
type enum Die Art der Blockierungsstrategie.
Mögliche Werte: auto, static
Yes

OpenAI.ChunkingStrategyResponseParam

Diskriminator für OpenAI.ChunkingStrategyResponseParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Name Type Description Required Default
type enum
Mögliche Werte: static, other
Yes

OpenAI.CodeInterpreterOutput

Diskriminator für OpenAI.CodeInterpreterOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Type Description Required Default
type OpenAI.CodeInterpreterOutputType Yes

OpenAI.CodeInterpreterOutputImage

Die Bildausgabe des Codedolmetschers.

Name Type Description Required Default
type enum Der Typ der Ausgabe. Always 'image'.
Mögliche Werte: image
Yes
url string Die URL der Bildausgabe des Codedolmetschers. Yes

OpenAI.CodeInterpreterOutputLogs

Die Protokolle werden vom Codedolmetscher ausgegeben.

Name Type Description Required Default
logs string Die Protokolle werden vom Codedolmetscher ausgegeben. Yes
type enum Der Typ der Ausgabe. Always 'logs'.
Mögliche Werte: logs
Yes

OpenAI.CodeInterpreterOutputType

Property Value
Type string
Values logs
image

OpenAI.CodeInterpreterTool

Ein Tool, das Python Code ausführt, um eine Antwort auf eine Eingabeaufforderung zu generieren.

Name Type Description Required Default
container object Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll. Yes
└─ file_ids array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. No
└─ type enum Immer auto.
Mögliche Werte: auto
No
type enum Der Typ des Codedolmetschertools. Immer code_interpreter.
Mögliche Werte: code_interpreter
Yes

OpenAI.CodeInterpreterToolAuto

Konfiguration für einen Codedolmetschercontainer. Geben Sie optional die IDs der Dateien an, für die der Code ausgeführt werden soll.

Name Type Description Required Default
file_ids array Eine optionale Liste der hochgeladenen Dateien, die Ihrem Code zur Verfügung gestellt werden sollen. No
type enum Immer auto.
Mögliche Werte: auto
Yes

OpenAI.CodeInterpreterToolCallItemParam

Ein Toolaufruf zum Ausführen von Code.

Name Type Description Required Default
code string Der auszuführende Code oder null, falls nicht verfügbar. Yes
container_id string Die ID des Containers, der zum Ausführen des Codes verwendet wird. Yes
outputs array Die vom Codedolmetscher generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann null sein, wenn keine Ausgaben verfügbar sind.
Yes
type enum
Mögliche Werte: code_interpreter_call
Yes

OpenAI.CodeInterpreterToolCallItemResource

Ein Toolaufruf zum Ausführen von Code.

Name Type Description Required Default
code string Der auszuführende Code oder null, falls nicht verfügbar. Yes
container_id string Die ID des Containers, der zum Ausführen des Codes verwendet wird. Yes
outputs array Die vom Codedolmetscher generierten Ausgaben, z. B. Protokolle oder Bilder.
Kann null sein, wenn keine Ausgaben verfügbar sind.
Yes
status enum
Mögliche Werte: in_progress, , completedincomplete, , interpretingfailed
Yes
type enum
Mögliche Werte: code_interpreter_call
Yes

OpenAI.ComparisonFilter

Ein Filter zum Vergleichen eines angegebenen Attributschlüssels mit einem bestimmten Wert mithilfe eines definierten Vergleichsvorgangs.

Name Type Description Required Default
key string Der Schlüssel, der mit dem Wert verglichen werden soll. Yes
type enum Gibt den Vergleichsoperator an: eq, ne, gt, gte, , . ltlte
- eq: entspricht
- ne: ungleich
- gt: größer als
- gte: größer oder gleich
- lt: kleiner als
- lte: kleiner oder gleich.
Mögliche Werte: eq, , ne, gtgte, , , ltlte
Yes
value Zeichenfolge oder Zahl oder boolescher Wert Yes

OpenAI.CompletionUsage

Nutzungsstatistiken für die Abschlussanforderung.

Name Type Description Required Default
completion_tokens integer Anzahl der Token im generierten Abschluss. Yes 0
completion_tokens_details object Aufschlüsselung der in einem Abschluss verwendeten Token. No
└─ accepted_prediction_tokens integer Bei Verwendung von "Vorhergesagte Ausgaben" gibt es die Anzahl der Token in der Vorhersage, die im Abschluss angezeigt wurde. No 0
└─ audio_tokens integer Vom Modell generierte Audioeingabetoken. No 0
└─ reasoning_tokens integer Vom Modell generierte Token zur Begründung. No 0
└─ rejected_prediction_tokens integer Bei Verwendung von vorhergesagten Ausgaben wird die Anzahl der Token in der Vorhersage, die nicht im Abschluss angezeigt wurden. Wie aus Gründen versehene Token werden diese Token jedoch weiterhin in den Gesamtabschlusstoken für Abrechnungs-, Ausgabe- und Kontextfensterbeschränkungen gezählt. No 0
prompt_tokens integer Anzahl der Token in der Eingabeaufforderung. Yes 0
prompt_tokens_details object Aufschlüsselung der in der Eingabeaufforderung verwendeten Token. No
└─ audio_tokens integer Audioeingabetoken, die in der Eingabeaufforderung vorhanden sind. No 0
└─ cached_tokens integer Zwischengespeicherte Token, die in der Eingabeaufforderung vorhanden sind. No 0
total_tokens integer Die Gesamtzahl der in der Anforderung verwendeten Token (Aufforderung + Abschluss). Yes 0

OpenAI.CompoundFilter

Kombinieren mehrerer Filter mit and oder or.

Name Type Description Required Default
filters array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Yes
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Yes

OpenAI.ComputerAction

Diskriminator für OpenAI.ComputerAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Type Description Required Default
type OpenAI.ComputerActionType Yes

OpenAI.ComputerActionClick

Eine Klickaktion.

Name Type Description Required Default
button enum Gibt an, welche Maustaste während des Klickens gedrückt wurde. Einer von left, right, wheel, , backoder forward.
Mögliche Werte: left, , rightwheel, , backforward
Yes
type enum Gibt den Ereignistyp an. Für eine Klickaktion ist diese Eigenschaft immer auf .click
Mögliche Werte: click
Yes
x integer Die x-Koordinate, an der der Klick aufgetreten ist. Yes
y integer Die y-Koordinate, an der der Klick aufgetreten ist. Yes

OpenAI.ComputerActionDoubleClick

Eine Doppelklickaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Bei einer Doppelklickaktion ist diese Eigenschaft immer auf .double_click
Mögliche Werte: double_click
Yes
x integer Die x-Koordinate, an der der Doppelklick aufgetreten ist. Yes
y integer Die y-Koordinate, an der der Doppelklick aufgetreten ist. Yes

OpenAI.ComputerActionDrag

Eine Ziehaktion.

Name Type Description Required Default
path array Ein Array von Koordinaten, die den Pfad der Ziehaktion darstellen. Koordinaten werden als Array von Objekten angezeigt, z. B.{ x: 100, y: 200 }, { x: 200, y: 300 } Yes
type enum Gibt den Ereignistyp an. Bei einer Ziehaktion ist diese Eigenschaft immer auf .drag
Mögliche Werte: drag
Yes

OpenAI.ComputerActionKeyPress

Eine Sammlung von Keypressen, die das Modell durchführen möchte.

Name Type Description Required Default
keys array Die Kombination von Tasten, die das Modell anfordert, zu drücken. Dies ist ein Array von Zeichenfolgen, die jeweils einen Schlüssel darstellen. Yes
type enum Gibt den Ereignistyp an. Bei einer Keypress-Aktion wird diese Eigenschaft immer auf keypress.
Mögliche Werte: keypress
Yes

OpenAI.ComputerActionMove

Eine Mausbewegungsaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Bei einer Verschiebungsaktion ist diese Eigenschaft immer auf .move
Mögliche Werte: move
Yes
x integer Die x-Koordinate, zu der verschoben werden soll. Yes
y integer Die y-Koordinate, zu der verschoben werden soll. Yes

OpenAI.ComputerActionScreenshot

Screenshotaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Für eine Screenshotaktion ist diese Eigenschaft immer auf .screenshot
Mögliche Werte: screenshot
Yes

OpenAI.ComputerActionScroll

Eine Bildlaufaktion.

Name Type Description Required Default
scroll_x integer Der horizontale Bildlaufabstand. Yes
scroll_y integer Der vertikale Bildlaufabstand. Yes
type enum Gibt den Ereignistyp an. Bei einer Bildlaufaktion ist diese Eigenschaft immer auf .scroll
Mögliche Werte: scroll
Yes
x integer Die x-Koordinate, an der der Bildlauf aufgetreten ist. Yes
y integer Die y-Koordinate, an der der Bildlauf aufgetreten ist. Yes

OpenAI.ComputerActionType

Property Value
Type string
Values screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Eine Aktion, die in Text eingegeben werden soll.

Name Type Description Required Default
text string Der einzugebende Text. Yes
type enum Gibt den Ereignistyp an. Bei einer Typaktion ist diese Eigenschaft immer auf .type
Mögliche Werte: type
Yes

OpenAI.ComputerActionWait

Eine Warteaktion.

Name Type Description Required Default
type enum Gibt den Ereignistyp an. Für eine Warteaktion ist diese Eigenschaft immer auf .wait
Mögliche Werte: wait
Yes

OpenAI.ComputerToolCallItemParam

Ein Toolaufruf an einen Computer, der das Tool verwendet.

Name Type Description Required Default
action OpenAI.ComputerAction Yes
call_id string Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird. Yes
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Yes
type enum
Mögliche Werte: computer_call
Yes

OpenAI.ComputerToolCallItemResource

Ein Toolaufruf an einen Computer, der das Tool verwendet.

Name Type Description Required Default
action OpenAI.ComputerAction Yes
call_id string Ein Bezeichner, der beim Antworten auf den Toolaufruf mit Ausgabe verwendet wird. Yes
pending_safety_checks array Die ausstehenden Sicherheitsprüfungen für den Computeranruf. Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum
Mögliche Werte: computer_call
Yes

OpenAI.ComputerToolCallOutputItemOutput

Diskriminator für OpenAI.ComputerToolCallOutputItemOutput

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Type Description Required Default
type OpenAI.ComputerToolCallOutputItemOutputType Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird. Yes

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Type Description Required Default
file_id string No
image_url string No
type enum
Mögliche Werte: computer_screenshot
Yes

OpenAI.ComputerToolCallOutputItemOutputType

Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.

Property Value
Description Ein Screenshotbild des Computers, das mit dem Computerverwendungstool verwendet wird.
Type string
Values computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Die Ausgabe eines Computertoolaufrufs.

Name Type Description Required Default
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. No
call_id string Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. Yes
output OpenAI.ComputerToolCallOutputItemOutput Yes
type enum
Mögliche Werte: computer_call_output
Yes

OpenAI.ComputerToolCallOutputItemResource

Die Ausgabe eines Computertoolaufrufs.

Name Type Description Required Default
acknowledged_safety_checks array Die von der API gemeldeten Sicherheitskontrollen, die vom Entwickler bestätigt wurden. No
call_id string Die ID des Computertoolaufrufs, der die Ausgabe erzeugt hat. Yes
output OpenAI.ComputerToolCallOutputItemOutput Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum
Mögliche Werte: computer_call_output
Yes

OpenAI.ComputerToolCallSafetyCheck

Eine ausstehende Sicherheitsüberprüfung für den Computeranruf.

Name Type Description Required Default
code string Der Typ der ausstehenden Sicherheitsüberprüfung. Yes
id string Die ID der ausstehenden Sicherheitsüberprüfung. Yes
message string Details zur ausstehenden Sicherheitsüberprüfung. Yes

OpenAI.ComputerUsePreviewTool

Ein Tool, das einen virtuellen Computer steuert.

Name Type Description Required Default
display_height integer Die Höhe der Computeranzeige. Yes
display_width integer Die Breite der Computeranzeige. Yes
environment enum Der Typ der zu steuernden Computerumgebung.
Mögliche Werte: windows, , maclinux, , ubuntubrowser
Yes
type enum Der Typ des Computerverwendungstools. Immer computer_use_preview.
Mögliche Werte: computer_use_preview
Yes

OpenAI.Coordinate

Ein x/y-Koordinatenpaar, z. B. { x: 100, y: 200 }.

Name Type Description Required Default
x integer The x-coordinate. Yes
y integer The y-coordinate. Yes

OpenAI.CreateEmbeddingResponse

Name Type Description Required Default
data array Die Liste der vom Modell generierten Einbettungen. Yes
model string Der Name des Modells, das zum Generieren der Einbettung verwendet wird. Yes
object enum Der Objekttyp, der immer "liste" ist.
Mögliche Werte: list
Yes
usage object Die Nutzungsinformationen für die Anforderung. Yes
└─ prompt_tokens integer Die Anzahl der von der Eingabeaufforderung verwendeten Token. No
└─ total_tokens integer Die Gesamtzahl der von der Anforderung verwendeten Token. No

OpenAI.CreateEvalItem

Eine Chatnachricht, aus der die Eingabeaufforderung oder der Kontext besteht. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}.

Name Type Description Required Default
content string oder OpenAI.EvalItemContent Texteingaben für das Modell – können Vorlagenzeichenfolgen enthalten. Yes
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.
Mögliche Werte: user, , assistant, systemdeveloper
Yes
type enum Der Typ der Nachrichteneingabe. Immer message.
Mögliche Werte: message
No

OpenAI.CreateEvalRunRequest

Name Type Description Required Default
data_source object Yes
└─ type OpenAI.EvalRunDataSourceType No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name der Ausführung. No

OpenAI.CreateFineTuningJobRequest

Valid models:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Type Description Required Default
hyperparameters object Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.
Dieser Wert ist nun zugunsten des methodParameters veraltet und sollte unter dem method Parameter übergeben werden.
No
└─ batch_size enum
Mögliche Werte: auto
No
└─ learning_rate_multiplier enum
Mögliche Werte: auto
No
└─ n_epochs enum
Mögliche Werte: auto
No
integrations array Eine Liste der Integrationen, die Für Ihren Feinabstimmungsauftrag aktiviert werden sollen. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. No
model Zeichenfolge (siehe gültige Modelle unten) Der Name des Modells, das optimiert werden soll. Yes
seed integer Der Seed steuert die Reproduzierbarkeit des Auftrags. Das Übergeben desselben Ausgangs- und Auftragsparameters sollte die gleichen Ergebnisse erzielen, kann sich aber in seltenen Fällen unterscheiden.
Wenn kein Seed angegeben ist, wird ein Seed für Sie generiert.
No
suffix string Eine Zeichenfolge von bis zu 64 Zeichen, die ihrem fein abgestimmten Modellnamen hinzugefügt werden.

Beispielsweise würde ein suffix "custom-model-name" einen Modellnamen wie ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No None
training_file string Die ID einer hochgeladenen Datei, die Schulungsdaten enthält. Ihr Dataset muss als JSONL-Datei formatiert werden. Darüber hinaus müssen Sie Ihre Datei mit dem Zweck fine-tunehochladen.

Der Inhalt der Datei sollte je nachdem, ob das Modell das Chat-, Abschlussformat verwendet oder wenn die Feinabstimmungsmethode das Einstellungsformat verwendet.
Yes
validation_file string Die ID einer hochgeladenen Datei, die Überprüfungsdaten enthält.

Wenn Sie diese Datei angeben, werden die Daten verwendet, um während der Feinabstimmung regelmäßig Validierungsmetriken zu generieren. Diese Metriken können in der Feinabstimmungsergebnisdatei angezeigt werden.
Die gleichen Daten sollten nicht sowohl in Train- als auch in Validierungsdateien vorhanden sein.

Ihr Dataset muss als JSONL-Datei formatiert werden. Sie müssen Ihre Datei mit dem Zweck fine-tunehochladen.
No

OpenAI.CreateFineTuningJobRequestIntegration

Diskriminator für OpenAI.CreateFineTuningJobRequestIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Type Description Required Default
type Zeichenfolge (siehe gültige Modelle unten) Yes

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Type Description Required Default
type enum
Mögliche Werte: wandb
Yes
wandb object Yes
└─ entity string No
└─ name string No
└─ project string No
└─ tags array No

OpenAI.CreateVectorStoreFileBatchRequest

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

OpenAI.CreateVectorStoreFileRequest

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Die Blockierungsstrategie, die verwendet wird, um die Datei(n) zu blöcken. Wenn sie nicht festgelegt ist, wird die auto Strategie verwendet. No
file_id string Eine Datei-ID, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. Yes

OpenAI.CreateVectorStoreRequest

Name Type Description Required Default
chunking_strategy object Die Standardstrategie. Diese Strategie verwendet derzeit eine max_chunk_size_tokens von 800 und chunk_overlap_tokens von 400. No
└─ static OpenAI.StaticChunkingStrategy No
└─ type enum Immer static.
Mögliche Werte: static
No
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
file_ids array Eine Liste der Datei-IDs, die der Vektorspeicher verwenden soll. Nützlich für Tools wie file_search den Zugriff auf Dateien. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

OpenAI.DeleteFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object enum
Mögliche Werte: file
Yes

OpenAI.DeleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object enum
Mögliche Werte: vector_store.file.deleted
Yes

OpenAI.DeleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object enum
Mögliche Werte: vector_store.deleted
Yes

OpenAI.Embedding

Stellt einen einbettenden Vektor dar, der vom Einbettungsendpunkt zurückgegeben wird.

Name Type Description Required Default
embedding Array oder Zeichenfolge Yes
index integer Der Index der Einbettung in der Liste der Einbettungen. Yes
object enum Der Objekttyp, der immer "einbetten" ist.
Mögliche Werte: embedding
Yes

OpenAI.Eval

Ein Eval-Objekt mit einer Datenquellenkonfiguration und Testkriterien. Eine Eval stellt eine Aufgabe dar, die für Ihre LLM-Integration durchgeführt werden soll. Like:

  • Verbessern der Qualität meines Chatbots
  • Sehen Sie, wie gut mein Chatbot den Kundensupport verarbeitet
  • Überprüfen Sie, ob o4-mini bei meinem Usecase besser ist als gpt-4o
Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Evals. Yes
data_source_config object Yes
└─ type OpenAI.EvalDataSourceConfigType No
id string Eindeutiger Bezeichner für die Auswertung. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
name string Der Name der Auswertung. Yes
object enum Der Objekttyp.
Mögliche Werte: eval
Yes
testing_criteria array Eine Liste der Testkriterien. Yes None

OpenAI.EvalApiError

Ein Objekt, das eine Fehlerantwort der Eval-API darstellt.

Name Type Description Required Default
code string Der Fehlercode. Yes
message string Die Fehlermeldung. Yes

OpenAI.EvalCompletionsRunDataSourceParams

Ein CompletionsRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.

Name Type Description Required Default
input_messages object No
└─ item_reference string Ein Verweis auf eine Variable im item Namespace. Ie, "item.input_trajectory" No
└─ template array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}. No
└─ type enum Der Typ der Eingabemeldungen. Immer item_reference.
Mögliche Werte: item_reference
No
model string Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). No
sampling_params AzureEvalAPICompletionsSamplingParams No
source object Yes
└─ content array Der Inhalt der JSONL-Datei. No
└─ created_after integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. No
└─ created_before integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. No
└─ id string Der Bezeichner der Datei. No
└─ limit integer Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ model string Ein optionales Modell zum Filtern nach (z. B. "gpt-4o"). No
└─ type enum Der Quelltyp. Immer stored_completions.
Mögliche Werte: stored_completions
No
type enum Der Typ der Ausführungsdatenquelle. Immer completions.
Mögliche Werte: completions
Yes

OpenAI.EvalCustomDataSourceConfigParams

Ein CustomDataSourceConfig -Objekt, das das Schema für die Datenquelle definiert, die für die Auswertung verwendet wird. Dieses Schema wird verwendet, um das Shape der Daten zu definieren, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Type Description Required Default
include_sample_schema boolean Gibt an, ob die Auswertung davon ausgehen soll, dass Sie den Beispielnamespace auffüllen (d. h. durch Generieren von Antworten aus Der Datenquelle) No False
item_schema object Das JSON-Schema für jede Zeile in der Datenquelle. Yes
type enum Der Typ der Datenquelle. Immer custom.
Mögliche Werte: custom
Yes

OpenAI.EvalCustomDataSourceConfigResource

Eine CustomDataSourceConfig, die das Schema Ihrer item und optional sample Namespaces angibt. Das Antwortschema definiert das Shape der Daten, die folgendes sein werden:

  • Wird verwendet, um Ihre Testkriterien zu definieren und
  • Welche Daten beim Erstellen einer Ausführung erforderlich sind
Name Type Description Required Default
schema object Das JSON-Schema für die Ausführen von Datenquellenelementen.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Yes
type enum Der Typ der Datenquelle. Immer custom.
Mögliche Werte: custom
Yes

OpenAI.EvalDataSourceConfigParams

Diskriminator für OpenAI.EvalDataSourceConfigParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Name Type Description Required Default
type OpenAI.EvalDataSourceConfigType Yes

OpenAI.EvalDataSourceConfigResource

Diskriminator für OpenAI.EvalDataSourceConfigResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Name Type Description Required Default
type OpenAI.EvalDataSourceConfigType Yes

OpenAI.EvalDataSourceConfigType

Property Value
Type string
Values custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Type Description Required Default
input array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}. Yes
labels array Die Bezeichnungen, die für jedes Element in der Auswertung klassifiziert werden sollen. Yes
model string Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen. Yes
name string Der Name des Graders. Yes
passing_labels array Die Beschriftungen, die ein übergebendes Ergebnis angeben. Muss eine Teilmenge von Bezeichnungen sein. Yes
type enum Der Objekttyp, der immer label_modelist.
Mögliche Werte: label_model
Yes

OpenAI.EvalGraderLabelModelResource

Name Type Description Required Default
input array Yes
labels array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Yes
model string Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen. Yes
name string Der Name des Graders. Yes
passing_labels array Die Beschriftungen, die ein übergebendes Ergebnis angeben. Muss eine Teilmenge von Bezeichnungen sein. Yes
type enum Der Objekttyp, der immer label_modelist.
Mögliche Werte: label_model
Yes

OpenAI.EvalGraderParams

Diskriminator für OpenAI.EvalGraderParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Name Type Description Required Default
type OpenAI.GraderType Yes

OpenAI.EvalGraderPythonParams

Name Type Description Required Default
image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
name string Der Name des Graders. Yes
pass_threshold number Der Schwellenwert für die Bewertung. No
source string Der Quellcode des Python-Skripts. Yes
type enum Der Objekttyp, der immer pythonist.
Mögliche Werte: python
Yes

OpenAI.EvalGraderPythonResource

Name Type Description Required Default
image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
name string Der Name des Graders. Yes
pass_threshold number Der Schwellenwert für die Bewertung. No
source string Der Quellcode des Python-Skripts. Yes
type enum Der Objekttyp, der immer pythonist.
Mögliche Werte: python
Yes

OpenAI.EvalGraderResource

Diskriminator für OpenAI.EvalGraderResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Name Type Description Required Default
type OpenAI.GraderType Yes

OpenAI.EvalGraderScoreModelParams

Name Type Description Required Default
input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
model string Das Modell, das für die Auswertung verwendet werden soll. Yes
name string Der Name des Graders. Yes
pass_threshold number Der Schwellenwert für die Bewertung. No
range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
sampling_params Die Samplingparameter für das Modell. No
type enum Der Objekttyp, der immer score_modelist.
Mögliche Werte: score_model
Yes

OpenAI.EvalGraderScoreModelResource

Name Type Description Required Default
input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
model string Das Modell, das für die Auswertung verwendet werden soll. Yes
name string Der Name des Graders. Yes
pass_threshold number Der Schwellenwert für die Bewertung. No
range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
sampling_params Die Samplingparameter für das Modell. No
type enum Der Objekttyp, der immer score_modelist.
Mögliche Werte: score_model
Yes

OpenAI.EvalGraderStringCheckParams

Name Type Description Required Default
input string Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
name string Der Name des Graders. Yes
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
Yes
reference string Der Bezugstext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
type enum Der Objekttyp, der immer string_checkist.
Mögliche Werte: string_check
Yes

OpenAI.EvalGraderTextSimilarityParams

Name Type Description Required Default
evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Yes
input string Der Text, der benotet wird. Yes
name string Der Name des Graders. Yes
pass_threshold number Der Schwellenwert für die Bewertung. Yes
reference string Der Text, der abgestuft wird. Yes
type enum Der Typ des Graders.
Mögliche Werte: text_similarity
Yes

OpenAI.EvalGraderTextSimilarityResource

Name Type Description Required Default
evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Yes
input string Der Text, der benotet wird. Yes
name string Der Name des Graders. Yes
pass_threshold number Der Schwellenwert für die Bewertung. Yes
reference string Der Text, der abgestuft wird. Yes
type enum Der Typ des Graders.
Mögliche Werte: text_similarity
Yes

OpenAI.EvalItem

Eine Meldungseingabe für das Modell mit einer Rolle, die die folgende Hierarchie angibt. Anweisungen, die mit der developer Rolle angegeben werden, system haben Vorrang vor Anweisungen, die mit der user Rolle angegeben werden. Nachrichten mit der assistant Rolle werden davon ausgegangen, dass sie vom Modell in früheren Interaktionen generiert wurden.

Name Type Description Required Default
content object Yes
└─ type OpenAI.EvalItemContentType No
role enum Die Rolle der Nachrichteneingabe. Einer von user, assistant, , systemoder developer.
Mögliche Werte: user, , assistant, systemdeveloper
Yes
type enum Der Typ der Nachrichteneingabe. Immer message.
Mögliche Werte: message
No

OpenAI.EvalItemContent

Diskriminator für OpenAI.EvalItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Name Type Description Required Default
type OpenAI.EvalItemContentType Yes

OpenAI.EvalItemContentInputText

Name Type Description Required Default
text string Yes
type enum
Mögliche Werte: input_text
Yes

OpenAI.EvalItemContentOutputText

Name Type Description Required Default
text string Yes
type enum
Mögliche Werte: output_text
Yes

OpenAI.EvalItemContentType

Property Value
Type string
Values input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Ein JsonlRunDataSource-Objekt mit dem eine JSONL-Datei angibt, die dem Eval entspricht

Name Type Description Required Default
source object Yes
└─ content array Der Inhalt der JSONL-Datei. No
└─ id string Der Bezeichner der Datei. No
└─ type enum Der Typ der JSONL-Quelle. Immer file_id.
Mögliche Werte: file_id
No
type enum Der Typ der Datenquelle. Immer jsonl.
Mögliche Werte: jsonl
Yes

OpenAI.EvalList

Ein Objekt, das eine Liste von Evals darstellt.

Name Type Description Required Default
data array Ein Array von Eval-Objekten. Yes
first_id string Der Bezeichner der ersten Auswertung im Datenarray. Yes
has_more boolean Gibt an, ob weitere Auswertungen verfügbar sind. Yes
last_id string Der Bezeichner der letzten Auswertung im Datenarray. Yes
object enum Der Typ dieses Objekts. Es ist immer auf "liste" festgelegt.
Mögliche Werte: list
Yes

OpenAI.EvalLogsDataSourceConfigParams

Eine Datenquellenkonfiguration, die die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw.

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
type enum Der Typ der Datenquelle. Immer logs.
Mögliche Werte: logs
Yes

OpenAI.EvalLogsDataSourceConfigResource

Eine LogsDataSourceConfig, die die Metadateneigenschaft Ihrer Protokollabfrage angibt. Dies ist in der Regel Metadaten wie usecase=chatbot oder prompt-version=v2usw. Das von dieser Datenquellenkonfiguration zurückgegebene Schema wird verwendet, um zu definieren, welche Variablen in Ihren Auswertungen verfügbar sind. item und sample sind beide definiert, wenn sie diese Datenquellenkonfiguration verwenden.

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
schema object Das JSON-Schema für die Ausführen von Datenquellenelementen.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Yes
type enum Der Typ der Datenquelle. Immer logs.
Mögliche Werte: logs
Yes

OpenAI.EvalResponsesRunDataSourceParams

Ein ResponsesRunDataSource-Objekt, das eine Modellsamplingkonfiguration beschreibt.

Name Type Description Required Default
input_messages object No
└─ item_reference string Ein Verweis auf eine Variable im item Namespace. Ie, "item.name" No
└─ template array Eine Liste der Chatnachrichten, die die Eingabeaufforderung oder den Kontext bilden. Kann variable Verweise auf den item Namespace enthalten, also {{item.name}}. No
└─ type enum Der Typ der Eingabemeldungen. Immer item_reference.
Mögliche Werte: item_reference
No
model string Der Name des Modells, das zum Generieren von Fertigstellungen verwendet werden soll (z. B. "o3-mini"). No
sampling_params AzureEvalAPIResponseSamplingParams No
source object Yes
└─ content array Der Inhalt der JSONL-Datei. No
└─ created_after integer Nur Elemente enthalten, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ created_before integer Nur Elemente enthalten, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ id string Der Bezeichner der Datei. No
└─ instructions_search string Optionale Zeichenfolge zum Durchsuchen des Felds "Anweisungen". Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ model string Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ reasoning_effort OpenAI.ReasoningEffort Optionaler Argumentierungsaufwandsparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ temperature number Sampling temperature. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ tools array Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ top_p number Kernsamplingparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
└─ type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Mögliche Werte: responses
No
└─ users array Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Mögliche Werte: responses
Yes

OpenAI.EvalRun

Ein Schema, das eine Auswertungsausführung darstellt.

Name Type Description Required Default
created_at integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Yes
data_source object Yes
└─ type OpenAI.EvalRunDataSourceType No
error OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. Yes
eval_id string Der Bezeichner der zugeordneten Auswertung. Yes
id string Eindeutiger Bezeichner für die Auswertungsausführung. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
model string Das Modell, das ausgewertet wird, falls zutreffend. Yes
name string Der Name der Auswertungsausführung. Yes
object enum Der Typ des Objekts. Always "eval.run".
Mögliche Werte: eval.run
Yes
per_model_usage array Nutzungsstatistiken für jedes Modell während der Auswertungsausführung. Yes
per_testing_criteria_results array Ergebnisse pro Testkriterien, die während der Auswertungsausführung angewendet werden. Yes
report_url string Die URL zum gerenderten Auswertungsausführungsbericht im UI-Dashboard. Yes
result_counts object Indikatoren, die die Ergebnisse der Auswertungsausführung zusammenfassen. Yes
└─ errored integer Anzahl der Ausgabeelemente, die zu einem Fehler geführt haben. No
└─ failed integer Anzahl der Ausgabeelemente, die die Auswertung nicht bestanden haben. No
└─ passed integer Anzahl der Ausgabeelemente, die die Auswertung bestanden haben. No
└─ total integer Gesamtanzahl der ausgeführten Ausgabeelemente. No
status string Der Status der Auswertungsausführung. Yes

OpenAI.EvalRunDataContentSource

Diskriminator für OpenAI.EvalRunDataContentSource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Name Type Description Required Default
type OpenAI.EvalRunDataContentSourceType Yes

OpenAI.EvalRunDataContentSourceType

Property Value
Type string
Values file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Name Type Description Required Default
type enum
Mögliche Werte: completions
Yes

OpenAI.EvalRunDataSourceJsonlResource

Name Type Description Required Default
type enum
Mögliche Werte: jsonl
Yes

OpenAI.EvalRunDataSourceParams

Diskriminator für OpenAI.EvalRunDataSourceParams

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Name Type Description Required Default
type OpenAI.EvalRunDataSourceType Yes

OpenAI.EvalRunDataSourceResource

Name Type Description Required Default
type OpenAI.EvalRunDataSourceType Yes

OpenAI.EvalRunDataSourceResponsesResource

Name Type Description Required Default
type enum
Mögliche Werte: responses
Yes

OpenAI.EvalRunDataSourceType

Property Value
Type string
Values jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Name Type Description Required Default
content array Der Inhalt der JSONL-Datei. Yes
type enum Der Typ der JSONL-Quelle. Immer file_content.
Mögliche Werte: file_content
Yes

OpenAI.EvalRunFileIdDataContentSource

Name Type Description Required Default
id string Der Bezeichner der Datei. Yes
type enum Der Typ der JSONL-Quelle. Immer file_id.
Mögliche Werte: file_id
Yes

OpenAI.EvalRunList

Ein Objekt, das eine Liste von Läufen für eine Auswertung darstellt.

Name Type Description Required Default
data array Ein Array von eval run objects. Yes
first_id string Der Bezeichner des ersten Eval-Vorgangs im Datenarray. Yes
has_more boolean Gibt an, ob weitere Auswertungen verfügbar sind. Yes
last_id string Der Bezeichner der letzten Ausführung der Eval im Datenarray. Yes
object enum Der Typ dieses Objekts. Es ist immer auf "liste" festgelegt.
Mögliche Werte: list
Yes

OpenAI.EvalRunOutputItem

Ein Schema, das ein Ausgabeelement für die Auswertungsausführung darstellt.

Name Type Description Required Default
created_at integer Unix-Zeitstempel (in Sekunden) beim Erstellen des Auswertungslaufs. Yes
datasource_item object Details des Eingabedatenquellelements. Yes
datasource_item_id integer Der Bezeichner für das Datenquellenelement. Yes
eval_id string Der Bezeichner der Auswertungsgruppe. Yes
id string Eindeutiger Bezeichner für das Ausgabeelement für die Auswertungsausführung. Yes
object enum Der Typ des Objekts. Always "eval.run.output_item".
Mögliche Werte: eval.run.output_item
Yes
results array Eine Liste der Ergebnisse aus der Auswertungsausführung. Yes
run_id string Der Bezeichner der Auswertungsausführung, die diesem Ausgabeelement zugeordnet ist. Yes
sample object Ein Beispiel, das die Eingabe und Ausgabe des Auswertungslaufs enthält. Yes
└─ error OpenAI.EvalApiError Ein Objekt, das eine Fehlerantwort der Eval-API darstellt. No
└─ finish_reason string Der Grund, warum die Beispielgenerierung abgeschlossen wurde. No
└─ input array Ein Array von Eingabemeldungen. No
└─ max_completion_tokens integer Die maximale Anzahl von Token, die für den Abschluss zulässig sind. No
└─ model string Das Modell, das zum Generieren des Beispiels verwendet wird. No
└─ output array Ein Array von Ausgabemeldungen. No
└─ seed integer Der zum Generieren der Probe verwendete Ausgangswert. No
└─ temperature number Die verwendete Probenahmetemperatur. No
└─ top_p number Der top_p Wert, der für das Sampling verwendet wird. No
└─ usage object Details zur Tokenverwendung für das Beispiel. No
└─ cached_tokens integer Die Anzahl der Token, die aus dem Cache abgerufen wurden. No
└─ completion_tokens integer Die Anzahl der generierten Abschlusstoken. No
└─ prompt_tokens integer Die Anzahl der verwendeten Eingabeaufforderungstoken. No
└─ total_tokens integer Die Gesamtzahl der verwendeten Token. No
status string Der Status der Auswertungsausführung. Yes

OpenAI.EvalRunOutputItemList

Ein Objekt, das eine Liste der Ausgabeelemente für eine Auswertungsausführung darstellt.

Name Type Description Required Default
data array Ein Array von eval run Output Item Objects. Yes
first_id string Der Bezeichner des ersten Ausgabeelements "eval run" im Datenarray. Yes
has_more boolean Gibt an, ob mehr Ausgabeelemente für die Auswertung verfügbar sind. Yes
last_id string Der Bezeichner des letzten Ausgabeelements der Eval-Ausführung im Datenarray. Yes
object enum Der Typ dieses Objekts. Es ist immer auf "liste" festgelegt.
Mögliche Werte: list
Yes

OpenAI.EvalRunResponsesDataContentSource

Ein EvalResponsesSource-Objekt, das eine Run-Datenquellenkonfiguration beschreibt.

Name Type Description Required Default
created_after integer Nur Elemente enthalten, die nach diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
created_before integer Nur Elemente enthalten, die vor diesem Zeitstempel (einschließlich) erstellt wurden. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
instructions_search string Optionale Zeichenfolge zum Durchsuchen des Felds "Anweisungen". Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
model string Der Name des Modells, für das Antworten gesucht werden sollen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
reasoning_effort object Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
temperature number Sampling temperature. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
tools array Liste der Toolnamen. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
top_p number Kernsamplingparameter. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No
type enum Der Typ der Ausführungsdatenquelle. Immer responses.
Mögliche Werte: responses
Yes
users array Liste der Benutzerbezeichner. Dies ist ein Abfrageparameter, der zum Auswählen von Antworten verwendet wird. No

OpenAI.EvalRunStoredCompletionsDataContentSource

Eine StoredCompletionsRunDataSource-Konfiguration, die eine Gruppe von Filtern beschreibt

Name Type Description Required Default
created_after integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die nach dieser Zeit erstellt wurden. No
created_before integer Ein optionaler Unix-Zeitstempel zum Filtern von Elementen, die vor dieser Zeit erstellt wurden. No
limit integer Eine optionale maximale Anzahl von Elementen, die zurückgegeben werden sollen. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
model string Ein optionales Modell zum Filtern nach (z. B. "gpt-4o"). No
type enum Der Quelltyp. Immer stored_completions.
Mögliche Werte: stored_completions
Yes

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Veraltet zugunsten von LogsDataSourceConfig.

Name Type Description Required Default
metadata object Metadatenfilter für die gespeicherte Abschlussdatenquelle. No
type enum Der Typ der Datenquelle. Immer stored_completions.
Mögliche Werte: stored_completions
Yes

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Veraltet zugunsten von LogsDataSourceConfig.

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
schema object Das JSON-Schema für die Ausführen von Datenquellenelementen.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Yes
type enum Der Typ der Datenquelle. Immer stored_completions.
Mögliche Werte: stored_completions
Yes

OpenAI.FileSearchTool

Ein Tool, das nach relevanten Inhalten aus hochgeladenen Dateien sucht.

Name Type Description Required Default
filters object No
max_num_results integer Die maximale Anzahl der zurückzugebenden Ergebnisse. Diese Zahl sollte zwischen 1 und 50 (einschließlich) liegen. No
ranking_options object No
└─ ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
No
└─ score_threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. No
type enum Der Typ des Dateisuchtools. Immer file_search.
Mögliche Werte: file_search
Yes
vector_store_ids array Die IDs der zu durchsuchenden Vektorspeicher. Yes

OpenAI.FileSearchToolCallItemParam

Die Ergebnisse eines Dateisuchtoolaufrufs.

Name Type Description Required Default
queries array Die Zum Suchen nach Dateien verwendeten Abfragen. Yes
results array Die Ergebnisse des Aufrufs des Dateisuchtools. No
type enum
Mögliche Werte: file_search_call
Yes

OpenAI.FileSearchToolCallItemResource

Die Ergebnisse eines Dateisuchtoolaufrufs.

Name Type Description Required Default
queries array Die Zum Suchen nach Dateien verwendeten Abfragen. Yes
results array Die Ergebnisse des Aufrufs des Dateisuchtools. No
status enum Der Status des Dateisuchtoolaufrufs. Einer von in_progress, searching, incomplete oder failed.
Mögliche Werte: in_progress, , searchingcompleted, , incompletefailed
Yes
type enum
Mögliche Werte: file_search_call
Yes

OpenAI.Filters

Name Type Description Required Default
filters array Array von Filtern, die kombiniert werden sollen. Elemente können sein ComparisonFilter oder CompoundFilter. Yes
key string Der Schlüssel, der mit dem Wert verglichen werden soll. Yes
type enum Typ des Vorgangs: and oder or.
Mögliche Werte: and, or
Yes
value Zeichenfolge oder Zahl oder boolescher Wert Der Wert, der mit dem Attributschlüssel verglichen werden soll; unterstützt Zeichenfolgen-, Zahlen- oder boolesche Typen. Yes

OpenAI.FineTuneDPOHyperparameters

Die hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden.

Name Type Description Required Default
batch_size enum
Mögliche Werte: auto
No
beta enum
Mögliche Werte: auto
No
learning_rate_multiplier enum
Mögliche Werte: auto
No
n_epochs enum
Mögliche Werte: auto
No

OpenAI.FineTuneDPOMethod

Konfiguration für die DPO-Feinabstimmungsmethode.

Name Type Description Required Default
hyperparameters OpenAI.FineTuneDPOHyperparameters Die hyperparameter, die für den DPO-Feinabstimmungsauftrag verwendet werden. No

OpenAI.FineTuneMethod

Die Methode, die für die Feinabstimmung verwendet wird.

Name Type Description Required Default
dpo OpenAI.FineTuneDPOMethod Konfiguration für die DPO-Feinabstimmungsmethode. No
reinforcement AzureFineTuneReinforcementMethod No
supervised OpenAI.FineTuneSupervisedMethod Konfiguration für die überwachte Feinabstimmungsmethode. No
type enum Der Typ der Methode. Ist entweder supervised, , dpooder reinforcement.
Mögliche Werte: supervised, , dporeinforcement
Yes

OpenAI.FineTuneReinforcementHyperparameters

Die Hyperparameter, die für den Verstärkungs-Feinabstimmungsauftrag verwendet werden.

Name Type Description Required Default
batch_size enum
Mögliche Werte: auto
No
compute_multiplier enum
Mögliche Werte: auto
No
eval_interval enum
Mögliche Werte: auto
No
eval_samples enum
Mögliche Werte: auto
No
learning_rate_multiplier enum
Mögliche Werte: auto
No
n_epochs enum
Mögliche Werte: auto
No
reasoning_effort enum Ebene des Grundaufwands.
Mögliche Werte: default, , low, mediumhigh
No

OpenAI.FineTuneSupervisedHyperparameters

Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden.

Name Type Description Required Default
batch_size enum
Mögliche Werte: auto
No
learning_rate_multiplier enum
Mögliche Werte: auto
No
n_epochs enum
Mögliche Werte: auto
No

OpenAI.FineTuneSupervisedMethod

Konfiguration für die überwachte Feinabstimmungsmethode.

Name Type Description Required Default
hyperparameters OpenAI.FineTuneSupervisedHyperparameters Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. No

OpenAI.FineTuningIntegration

Diskriminator für OpenAI.FineTuningIntegration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Type Description Required Default
type Zeichenfolge (siehe gültige Modelle unten) Yes

OpenAI.FineTuningIntegrationWandb

Name Type Description Required Default
type enum Der Typ der Integration, die für den Feinabstimmungsauftrag aktiviert wird.
Mögliche Werte: wandb
Yes
wandb object Die Einstellungen für Ihre Integration mit Gewichtungen und Biases. Diese Nutzlast gibt das Projekt an, an das Metriken gesendet werden. Optional können Sie einen expliziten Anzeigenamen für Ihre Ausführung festlegen, Ihrer Ausführung Tags hinzufügen und eine Standardentität (Team, Benutzername usw.) festlegen, die Ihrer Ausführung zugeordnet werden soll. Yes
└─ entity string Die Entität, die für die Ausführung verwendet werden soll. Auf diese Weise können Sie das Team oder den Benutzernamen des WandB-Benutzers festlegen, den Sie der Ausführung zuordnen möchten. Wenn nicht festgelegt, wird die Standardentität für den registrierten WandB-API-Schlüssel verwendet. No
└─ name string Ein Anzeigename, der für die Ausführung festgelegt werden soll. Wenn nicht festgelegt, verwenden wir die Auftrags-ID als Namen. No
└─ project string Der Name des Projekts, unter dem die neue Ausführung erstellt wird. No
└─ tags array Eine Liste der Tags, die an die neu erstellte Ausführung angefügt werden sollen. Diese Tags werden direkt an WandB weitergeleitet. Einige Standardtags werden von OpenAI generiert: "openai/finetune", "openai/{base-model}", "openai/{ftjob-abcdef}". No

OpenAI.FineTuningJob

Das fine_tuning.job Objekt stellt einen Feinabstimmungsauftrag dar, der über die API erstellt wurde.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Feinabstimmungsauftrags. Yes
error object Bei Feinabstimmungsaufträgen, die über failedverfügen, enthält dies weitere Informationen zur Ursache des Fehlers. Yes
└─ code string Ein computerlesbarer Fehlercode. No
└─ message string Eine für Menschen lesbare Fehlermeldung. No
└─ param string Der Parameter, der ungültig war, in der Regel training_file oder validation_file. Dieses Feld ist NULL, wenn der Fehler nicht parameterspezifisch war. No
estimated_finish integer Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Feinabstimmungsauftrags. Der Wert ist NULL, wenn der Feinabstimmungsauftrag nicht ausgeführt wird. No
fine_tuned_model string Der Name des fein abgestimmten Modells, das erstellt wird. Der Wert ist NULL, wenn der Feinabstimmungsauftrag noch ausgeführt wird. Yes
finished_at integer Der Unix-Zeitstempel (in Sekunden) für den Abschluss des Feinabstimmungsauftrags. Der Wert ist NULL, wenn der Feinabstimmungsauftrag noch ausgeführt wird. Yes
hyperparameters object Die hyperparameter, die für den Feinabstimmungsauftrag verwendet werden. Dieser Wert wird nur zurückgegeben, wenn Aufträge ausgeführt supervised werden. Yes
└─ batch_size enum
Mögliche Werte: auto
No
└─ learning_rate_multiplier enum
Mögliche Werte: auto
No
└─ n_epochs enum
Mögliche Werte: auto
No
id string Der Objektbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Yes
integrations array Eine Liste der Integrationen, die für diesen Feinabstimmungsauftrag aktiviert werden sollen. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
method OpenAI.FineTuneMethod Die Methode, die für die Feinabstimmung verwendet wird. No
model string Das Basismodell, das fein abgestimmt wird. Yes
object enum Der Objekttyp, der immer "fine_tuning.job" ist.
Mögliche Werte: fine_tuning.job
Yes
organization_id string Die Organisation, die den Feinabstimmungsauftrag besitzt. Yes
result_files array Die kompilierten Ergebnisdatei-ID(n) für den Feinabstimmungsauftrag. Sie können die Ergebnisse mit der Datei-API abrufen. Yes
seed integer Der für den Feinabstimmungsauftrag verwendete Seed. Yes
status enum Der aktuelle Status des Feinabstimmungsauftrags, der entweder validating_files, , queued, running, , succeeded, oder failedcancelled.
Mögliche Werte: validating_files, , queued, runningsucceeded, , , failedcancelled
Yes
trained_tokens integer Die Gesamtzahl der token, die von diesem Feinabstimmungsauftrag verarbeitet werden. Der Wert ist NULL, wenn der Feinabstimmungsauftrag noch ausgeführt wird. Yes
training_file string Die datei-ID, die für die Schulung verwendet wird. Sie können die Schulungsdaten mit der Dateien-API abrufen. Yes
user_provided_suffix string Das beschreibende Suffix, das auf den Auftrag angewendet wurde, wie in der Auftragserstellungsanforderung angegeben. No
validation_file string Die zur Überprüfung verwendete Datei-ID. Sie können die Validierungsergebnisse mit der Datei-API abrufen. Yes

OpenAI.FineTuningJobCheckpoint

Das fine_tuning.job.checkpoint Objekt stellt einen Modellprüfpunkt für einen Feinabstimmungsauftrag dar, der zur Verwendung bereit ist.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Prüfpunkts. Yes
fine_tuned_model_checkpoint string Der Name des erstellten fein abgestimmten Prüfpunktmodells. Yes
fine_tuning_job_id string Der Name des Feinabstimmungsauftrags, aus dem dieser Prüfpunkt erstellt wurde. Yes
id string Der Prüfpunktbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Yes
metrics object Metriken bei der Schrittnummer während des Feinabstimmungsauftrags. Yes
└─ full_valid_loss number No
└─ full_valid_mean_token_accuracy number No
└─ step number No
└─ train_loss number No
└─ train_mean_token_accuracy number No
└─ valid_loss number No
└─ valid_mean_token_accuracy number No
object enum Der Objekttyp, der immer "fine_tuning.job.checkpoint" ist.
Mögliche Werte: fine_tuning.job.checkpoint
Yes
step_number integer Die Schrittnummer, an der der Prüfpunkt erstellt wurde. Yes

OpenAI.FineTuningJobEvent

Feinabstimmung des Auftragsereignisobjekts

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Feinabstimmungsauftrags. Yes
data Die dem Ereignis zugeordneten Daten. No
id string Der Objektbezeichner. Yes
level enum Die Protokollebene des Ereignisses.
Mögliche Werte: info, , warnerror
Yes
message string Die Nachricht des Ereignisses. Yes
object enum Der Objekttyp, der immer "fine_tuning.job.event" ist.
Mögliche Werte: fine_tuning.job.event
Yes
type enum Der Ereignistyp.
Mögliche Werte: message, metrics
No

OpenAI.FunctionObject

Name Type Description Required Default
description string Eine Beschreibung der Funktion, die vom Modell verwendet wird, um auszuwählen, wann und wie die Funktion aufgerufen wird. No
name string Der Name der funktion, die aufgerufen werden soll. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
parameters Die Parameter, die die Funktionen akzeptieren, die als JSON-Schemaobjekt beschrieben werden. No
strict boolean Gibt an, ob die strikte Schematreue beim Generieren des Funktionsaufrufs aktiviert werden soll. Wenn dieser Wert auf "true" festgelegt ist, folgt das Modell dem genauen Schema, das parameters im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true. No False

OpenAI.FunctionTool

Definiert eine Funktion in Ihrem eigenen Code, die das Modell aufrufen kann.

Name Type Description Required Default
description string Eine Beschreibung der Funktion. Wird vom Modell verwendet, um zu bestimmen, ob die Funktion aufgerufen werden soll. No
name string Der Name der funktion, die aufgerufen werden soll. Yes
parameters Ein JSON-Schemaobjekt, das die Parameter der Funktion beschreibt. Yes
strict boolean Gibt an, ob die strenge Parameterüberprüfung erzwungen werden soll. Standard true. Yes
type enum Der Typ des Funktionstools. Immer function.
Mögliche Werte: function
Yes

OpenAI.FunctionToolCallItemParam

Ein Toolaufruf zum Ausführen einer Funktion.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Yes
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Yes
name string Der Name der auszuführenden Funktion. Yes
type enum
Mögliche Werte: function_call
Yes

OpenAI.FunctionToolCallItemResource

Ein Toolaufruf zum Ausführen einer Funktion.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge der Argumente, die an die Funktion übergeben werden sollen. Yes
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Yes
name string Der Name der auszuführenden Funktion. Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum
Mögliche Werte: function_call
Yes

OpenAI.FunctionToolCallOutputItemParam

Die Ausgabe eines Funktionstoolaufrufs.

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Yes
output string Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. Yes
type enum
Mögliche Werte: function_call_output
Yes

OpenAI.FunctionToolCallOutputItemResource

Die Ausgabe eines Funktionstoolaufrufs.

Name Type Description Required Default
call_id string Die eindeutige ID des vom Modell generierten Funktionstoolaufrufs. Yes
output string Eine JSON-Zeichenfolge der Ausgabe des Funktionstoolaufrufs. Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum
Mögliche Werte: function_call_output
Yes

OpenAI.Grader

Diskriminator für OpenAI.Grader

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Name Type Description Required Default
type OpenAI.GraderType Yes

OpenAI.GraderLabelModel

Ein LabelModelGrader -Objekt, das ein Modell verwendet, um jedem Element in der Auswertung Bezeichnungen zuzuweisen.

Name Type Description Required Default
input array Yes
labels array Die Bezeichnungen, die jedem Element in der Auswertung zugewiesen werden sollen. Yes
model string Das Modell, das für die Auswertung verwendet werden soll. Muss strukturierte Ausgaben unterstützen. Yes
name string Der Name des Graders. Yes
passing_labels array Die Beschriftungen, die ein übergebendes Ergebnis angeben. Muss eine Teilmenge von Bezeichnungen sein. Yes
type enum Der Objekttyp, der immer label_modelist.
Mögliche Werte: label_model
Yes

OpenAI.GraderMulti

Ein MultiGrader-Objekt kombiniert die Ausgabe mehrerer Grader, um eine einzelne Bewertung zu erzeugen.

Name Type Description Required Default
calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. Yes
graders object Yes
name string Der Name des Graders. Yes
type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
Yes

OpenAI.GraderPython

Ein PythonGrader-Objekt, das ein Python-Skript für die Eingabe ausführt.

Name Type Description Required Default
image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
name string Der Name des Graders. Yes
source string Der Quellcode des Python-Skripts. Yes
type enum Der Objekttyp, der immer pythonist.
Mögliche Werte: python
Yes

OpenAI.GraderScoreModel

Ein ScoreModelGrader-Objekt, das ein Modell verwendet, um der Eingabe eine Bewertung zuzuweisen.

Name Type Description Required Default
input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
model string Das Modell, das für die Auswertung verwendet werden soll. Yes
name string Der Name des Graders. Yes
range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
sampling_params Die Samplingparameter für das Modell. No
type enum Der Objekttyp, der immer score_modelist.
Mögliche Werte: score_model
Yes

OpenAI.GraderStringCheck

Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt.

Name Type Description Required Default
input string Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
name string Der Name des Graders. Yes
operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
Yes
reference string Der Bezugstext. Dies kann Vorlagenzeichenfolgen enthalten. Yes
type enum Der Objekttyp, der immer string_checkist.
Mögliche Werte: string_check
Yes

OpenAI.GraderTextSimilarity

Ein TextSimilarityGrader -Objekt, das Text basierend auf Ähnlichkeitsmetriken benotet.

Name Type Description Required Default
evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
Yes
input string Der Text, der benotet wird. Yes
name string Der Name des Graders. Yes
reference string Der Text, der abgestuft wird. Yes
type enum Der Typ des Graders.
Mögliche Werte: text_similarity
Yes

OpenAI.GraderType

Property Value
Type string
Values string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Ein Tool, das Bilder mithilfe eines Modells wie gpt-image-1.5.

Name Type Description Required Default
background enum NUR GPT-image-1: Hintergrundtyp für das generierte Bild. Einer von transparent, opaque, oder auto. Standard: auto.
Mögliche Werte: transparent, , opaqueauto
No
input_image_mask object Optionale Maske für die Bemalung. Enthält image_url (Zeichenfolge, optional) und file_id (Zeichenfolge, optional). No
└─ file_id string Datei-ID für das Maskenbild. No
└─ image_url string Base64-codiertes Maskenbild. No
model enum Das zu verwendende Modell der Bildgenerierung. Standard: gpt-image-1.
Mögliche Werte: gpt-image-1, , gpt-image-1.5gpt-image-2
No
moderation enum Moderationsebene für das generierte Bild. Standard: auto.
Mögliche Werte: auto, low
No
output_compression integer Komprimierungsebene für das Ausgabebild. Default: 100. No 100
output_format enum Das Ausgabeformat des generierten Bilds. Einer von png, webp, oder jpeg. Standard: png.
Mögliche Werte: png, , webpjpeg
No
partial_images integer Anzahl der Teilbilder, die im Streamingmodus generiert werden sollen, von 0 (Standardwert) bis 3. No 0
quality enum Die Qualität des generierten Bilds. Einer von low, medium, , highoder auto. Standard: auto.
Mögliche Werte: low, , medium, highauto
No
size enum Die Größe des generierten Bilds. Einer von 1024x1024, 1024x1536, , 1536x1024oder auto. Standard: auto.
Mögliche Werte: 1024x1024, , 1024x1536, 1536x1024auto
No
type enum Der Typ des Tools zur Bildgenerierung. Immer image_generation.
Mögliche Werte: image_generation
Yes

OpenAI.ImageGenToolCallItemParam

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Type Description Required Default
result string Das generierte Bild, das in Base64 codiert wurde. Yes
type enum
Mögliche Werte: image_generation_call
Yes

OpenAI.ImageGenToolCallItemResource

Eine Vom Modell vorgenommene Anforderung zur Bildgenerierung.

Name Type Description Required Default
result string Das generierte Bild, das in Base64 codiert wurde. Yes
status enum
Mögliche Werte: in_progress, , completed, generatingfailed
Yes
type enum
Mögliche Werte: image_generation_call
Yes

OpenAI.ImplicitUserMessage

Name Type Description Required Default
content Zeichenfolge oder Matrix Yes

OpenAI.Includable

Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:

  • code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.
  • computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
  • file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
  • message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
  • message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.
  • reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist).
Property Value
Description Geben Sie zusätzliche Ausgabedaten an, die in die Modellantwort eingeschlossen werden sollen. Derzeit unterstützte Werte sind:
- code_interpreter_call.outputs: Enthält die Ausgaben der Python-Codeausführung in Codedolmetscher-Toolaufrufelemente.
- computer_call_output.output.image_url: Schließen Sie Bild-URLs aus der Ausgabe des Computeraufrufs ein.
- file_search_call.results: Schließen Sie die Suchergebnisse des Aufrufs des Dateisuchtools ein.
- message.input_image.image_url: Fügen Sie Bild-URLs aus der Eingabenachricht ein.
- message.output_text.logprobs: Fügen Sie Logprobs in Assistentennachrichten ein.
- reasoning.encrypted_content: Enthält eine verschlüsselte Version von Begründungstoken bei der Ausgabe von Gründen für Elemente. Dies ermöglicht die Verwendung von Elementen in Multi-Turn-Unterhaltungen, wenn die Antwort-API zustandslos verwendet wird (z. B. wenn der store Parameter auf false" festgelegt ist" oder wenn eine Organisation im Aufbewahrungsprogramm für Nulldaten registriert ist).
Type string
Values code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Diskriminator für OpenAI.ItemContent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Type Description Required Default
type OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. Yes

OpenAI.ItemContentInputAudio

Eine Audioeingabe für das Modell.

Name Type Description Required Default
data string Base64-codierte Audiodaten. Yes
format enum Das Format der Audiodaten. Derzeit unterstützte Formate sind mp3 und wav.
Mögliche Werte: mp3, wav
Yes
type enum Der Typ des Eingabeelements. Immer input_audio.
Mögliche Werte: input_audio
Yes

OpenAI.ItemContentInputFile

Eine Dateieingabe für das Modell.

Name Type Description Required Default
file_data string Der Inhalt der Datei, die an das Modell gesendet werden soll. No
file_id string Die ID der Datei, die an das Modell gesendet werden soll. No
filename string Der Name der Datei, die an das Modell gesendet werden soll. No
type enum Der Typ des Eingabeelements. Immer input_file.
Mögliche Werte: input_file
Yes

OpenAI.ItemContentInputImage

Eine Bildeingabe für das Modell.

Name Type Description Required Default
detail enum Die Detailebene des Bilds, das an das Modell gesendet werden soll. Einer von high, low, oder auto. Standardwert ist .auto
Mögliche Werte: low, , highauto
No
file_id string Die ID der Datei, die an das Modell gesendet werden soll. No
image_url string Die URL des Bilds, das an das Modell gesendet werden soll. Ein vollqualifiziertes URL- oder base64-codiertes Bild in einer Daten-URL. No
type enum Der Typ des Eingabeelements. Immer input_image.
Mögliche Werte: input_image
Yes

OpenAI.ItemContentInputText

Eine Texteingabe für das Modell.

Name Type Description Required Default
text string Die Texteingabe für das Modell. Yes
type enum Der Typ des Eingabeelements. Immer input_text.
Mögliche Werte: input_text
Yes

OpenAI.ItemContentOutputAudio

Eine Audioausgabe aus dem Modell.

Name Type Description Required Default
data string Base64-codierte Audiodaten aus dem Modell. Yes
transcript string Die Transkription der Audiodaten aus dem Modell. Yes
type enum Der Typ des Ausgabeaudios. Immer output_audio.
Mögliche Werte: output_audio
Yes

OpenAI.ItemContentOutputText

Eine Textausgabe aus dem Modell.

Name Type Description Required Default
annotations array Die Anmerkungen der Textausgabe. Yes
logprobs array No
text string Die Textausgabe aus dem Modell. Yes
type enum Der Typ des Ausgabetexts. Immer output_text.
Mögliche Werte: output_text
Yes

OpenAI.ItemContentRefusal

Eine Ablehnung des Modells.

Name Type Description Required Default
refusal string Die Erklärung zur Ablehnung des Modells. Yes
type enum Die Art der Ablehnung. Immer refusal.
Mögliche Werte: refusal
Yes

OpenAI.ItemContentType

Mehr modaler Eingabe- und Ausgabeinhalt.

Property Value
Description Mehr modaler Eingabe- und Ausgabeinhalt.
Type string
Values input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemParam

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Name Type Description Required Default
type OpenAI.ItemType Yes

OpenAI.ItemReferenceItemParam

Ein interner Bezeichner für ein Element, auf das verwiesen werden soll.

Name Type Description Required Default
id string Auf die vom Dienst stammte ID des zuvor generierten Antwortelements, auf das verwiesen wird. Yes
type enum
Mögliche Werte: item_reference
Yes

OpenAI.ItemResource

Inhaltselement, das zum Generieren einer Antwort verwendet wird.

Diskriminator für OpenAI.ItemResource

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Name Type Description Required Default
id string Yes
type OpenAI.ItemType Yes

OpenAI.ItemType

Property Value
Type string
Values message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Name Type Description Required Default
data array Yes
first_id string No
has_more boolean Yes
last_id string No
object enum
Mögliche Werte: list
Yes

OpenAI.ListFineTuningJobEventsResponse

Name Type Description Required Default
data array Yes
has_more boolean Yes
object enum
Mögliche Werte: list
Yes

OpenAI.ListModelsResponse

Name Type Description Required Default
data array Yes
object enum
Mögliche Werte: list
Yes

OpenAI.ListPaginatedFineTuningJobsResponse

Name Type Description Required Default
data array Yes
has_more boolean Yes
object enum
Mögliche Werte: list
Yes

OpenAI.ListVectorStoreFilesFilter

Property Value
Type string
Values in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object enum
Mögliche Werte: list
Yes

OpenAI.ListVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object enum
Mögliche Werte: list
Yes

OpenAI.LocalShellExecAction

Führen Sie einen Shellbefehl auf dem Server aus.

Name Type Description Required Default
command array Der auszuführende Befehl. Yes
env object Umgebungsvariablen, die für den Befehl festgelegt werden sollen. Yes
timeout_ms integer Optionaler Timeout in Millisekunden für den Befehl. No
type enum Der Typ der lokalen Shellaktion. Immer exec.
Mögliche Werte: exec
Yes
user string Optionaler Benutzer zum Ausführen des Befehls als. No
working_directory string Optionales Arbeitsverzeichnis zum Ausführen des Befehls in. No

OpenAI.LocalShellTool

Ein Tool, mit dem das Modell Shellbefehle in einer lokalen Umgebung ausführen kann.

Name Type Description Required Default
type enum Der Typ des lokalen Shelltools. Immer local_shell.
Mögliche Werte: local_shell
Yes

OpenAI.LocalShellToolCallItemParam

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Type Description Required Default
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Yes
call_id string Die eindeutige ID des vom Modell generierten aufrufs des lokalen Shelltools. Yes
type enum
Mögliche Werte: local_shell_call
Yes

OpenAI.LocalShellToolCallItemResource

Ein Toolaufruf zum Ausführen eines Befehls auf der lokalen Shell.

Name Type Description Required Default
action OpenAI.LocalShellExecAction Führen Sie einen Shellbefehl auf dem Server aus. Yes
call_id string Die eindeutige ID des vom Modell generierten aufrufs des lokalen Shelltools. Yes
status enum
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum
Mögliche Werte: local_shell_call
Yes

OpenAI.LocalShellToolCallOutputItemParam

Die Ausgabe eines Aufrufs eines lokalen Shell-Tools.

Name Type Description Required Default
output string Eine JSON-Zeichenfolge der Ausgabe des aufrufs des lokalen Shell-Tools. Yes
type enum
Mögliche Werte: local_shell_call_output
Yes

OpenAI.LocalShellToolCallOutputItemResource

Die Ausgabe eines Aufrufs eines lokalen Shell-Tools.

Name Type Description Required Default
output string Eine JSON-Zeichenfolge der Ausgabe des aufrufs des lokalen Shell-Tools. Yes
status enum
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum
Mögliche Werte: local_shell_call_output
Yes

OpenAI.Location

Diskriminator für OpenAI.Location

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
approximate OpenAI.ApproximateLocation
Name Type Description Required Default
type OpenAI.LocationType Yes

OpenAI.LocationType

Property Value
Type string
Values approximate

OpenAI.LogProb

Die Protokollwahrscheinlichkeit eines Tokens.

Name Type Description Required Default
bytes array Yes
logprob number Yes
token string Yes
top_logprobs array Yes

OpenAI.MCPApprovalRequestItemParam

Ein Antrag auf menschliche Genehmigung eines Werkzeugaufrufs.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge mit Argumenten für das Tool. Yes
name string Der Name des auszuführenden Tools. Yes
server_label string Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Yes
type enum
Mögliche Werte: mcp_approval_request
Yes

OpenAI.MCPApprovalRequestItemResource

Ein Antrag auf menschliche Genehmigung eines Werkzeugaufrufs.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge mit Argumenten für das Tool. Yes
name string Der Name des auszuführenden Tools. Yes
server_label string Die Bezeichnung des MCP-Servers, der die Anforderung vornimmt. Yes
type enum
Mögliche Werte: mcp_approval_request
Yes

OpenAI.MCPApprovalResponseItemParam

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Type Description Required Default
approval_request_id string Die ID der Genehmigungsanforderung, die beantwortet wird. Yes
approve boolean Gibt an, ob die Anforderung genehmigt wurde. Yes
reason string Optionaler Grund für die Entscheidung. No
type enum
Mögliche Werte: mcp_approval_response
Yes

OpenAI.MCPApprovalResponseItemResource

Eine Antwort auf eine MCP-Genehmigungsanforderung.

Name Type Description Required Default
approval_request_id string Die ID der Genehmigungsanforderung, die beantwortet wird. Yes
approve boolean Gibt an, ob die Anforderung genehmigt wurde. Yes
reason string Optionaler Grund für die Entscheidung. No
type enum
Mögliche Werte: mcp_approval_response
Yes

OpenAI.MCPCallItemParam

Ein Aufruf eines Tools auf einem MCP-Server.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Yes
error string Der Fehler des Toolaufrufs( falls vorhanden). No
name string Der Name des tools, das ausgeführt wurde. Yes
output string Die Ausgabe des Toolaufrufs. No
server_label string Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Yes
type enum
Mögliche Werte: mcp_call
Yes

OpenAI.MCPCallItemResource

Ein Aufruf eines Tools auf einem MCP-Server.

Name Type Description Required Default
arguments string Eine JSON-Zeichenfolge der Argumente, die an das Tool übergeben werden. Yes
error string Der Fehler des Toolaufrufs( falls vorhanden). No
name string Der Name des tools, das ausgeführt wurde. Yes
output string Die Ausgabe des Toolaufrufs. No
server_label string Die Bezeichnung des MCP-Servers, auf dem das Tool ausgeführt wird. Yes
type enum
Mögliche Werte: mcp_call
Yes

OpenAI.MCPListToolsItemParam

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Type Description Required Default
error string Fehlermeldung, wenn der Server keine Tools auflisten konnte. No
server_label string Die Bezeichnung des MCP-Servers. Yes
tools array Die auf dem Server verfügbaren Tools. Yes
type enum
Mögliche Werte: mcp_list_tools
Yes

OpenAI.MCPListToolsItemResource

Eine Liste der auf einem MCP-Server verfügbaren Tools.

Name Type Description Required Default
error string Fehlermeldung, wenn der Server keine Tools auflisten konnte. No
server_label string Die Bezeichnung des MCP-Servers. Yes
tools array Die auf dem Server verfügbaren Tools. Yes
type enum
Mögliche Werte: mcp_list_tools
Yes

OpenAI.MCPListToolsTool

Ein Tool, das auf einem MCP-Server verfügbar ist.

Name Type Description Required Default
annotations Zusätzliche Anmerkungen zum Tool. No
description string Die Beschreibung des Tools. No
input_schema Das JSON-Schema, das die Eingabe des Tools beschreibt. Yes
name string Der Name des Tools. Yes

OpenAI.MCPTool

Gewähren Sie dem Modell Zugriff auf zusätzliche Tools über MCP-Server (Remote Model Context Protocol).

Name Type Description Required Default
allowed_tools object No
└─ tool_names array Liste der zulässigen Toolnamen. No
headers object Optionale HTTP-Header, die an den MCP-Server gesendet werden sollen. Wird für die Authentifizierung oder andere Zwecke verwendet. No
require_approval -Objekt (siehe gültige Modelle unten) Geben Sie an, welche Tools des MCP-Servers eine Genehmigung erfordern. No
server_label string Eine Bezeichnung für diesen MCP-Server, die verwendet wird, um sie in Toolaufrufen zu identifizieren. Yes
server_url string Die URL für den MCP-Server. Yes
type enum Der Typ des MCP-Tools. Immer mcp.
Mögliche Werte: mcp
Yes

OpenAI.MetadataPropertyForRequest

Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.

Name Type Description Required Default
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No

OpenAI.Model

Beschreibt ein OpenAI-Modellangebot, das mit der API verwendet werden kann.

Name Type Description Required Default
created integer Der Unix-Zeitstempel (in Sekunden), als das Modell erstellt wurde. Yes
id string Der Modellbezeichner, auf den in den API-Endpunkten verwiesen werden kann. Yes
object enum Der Objekttyp, der immer "Modell" ist.
Mögliche Werte: model
Yes
owned_by string Die Organisation, die das Modell besitzt. Yes

OpenAI.OtherChunkingStrategyResponseParam

Dies wird zurückgegeben, wenn die Blockierungsstrategie unbekannt ist. In der Regel liegt dies daran, dass die Datei indiziert wurde, bevor das chunking_strategy Konzept in der API eingeführt wurde.

Name Type Description Required Default
type enum Immer other.
Mögliche Werte: other
Yes

OpenAI.ParallelToolCalls

Gibt an, ob beim Verwenden des Tools parallele Funktionsaufrufe aktiviert werden sollen.

Type: boolean

OpenAI.Prompt

Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen.

Name Type Description Required Default
id string Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. Yes
variables object Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. No
version string Optionale Version der Eingabeaufforderungsvorlage. No

OpenAI.RankingOptions

Name Type Description Required Default
ranker enum Der Rangfolger, der für die Dateisuche verwendet werden soll.
Mögliche Werte: auto, default-2024-11-15
No
score_threshold number Der Schwellenwert für die Bewertung für die Dateisuche, eine Zahl zwischen 0 und 1. Zahlen, die näher an 1 sind, versuchen, nur die relevantesten Ergebnisse zurückzugeben, können aber weniger Ergebnisse zurückgeben. No

OpenAI.Reasoning

Nur o-Serienmodelle

Name Type Description Required Default
effort object Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No

OpenAI.ReasoningEffort

Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen. Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.

Property Value
Description Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
Type string
Values low
medium
high

OpenAI.ReasoningItemParam

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in die input Antwort-API für nachfolgende Wendungen einer Unterhaltung einzuschließen, wenn Sie den Kontext manuell verwalten.

Name Type Description Required Default
encrypted_content string Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort im reasoning.encrypted_contentinclude Parameter generiert wird. No
summary array Textinhalt wird mit Gründen versehen. Yes
type enum
Mögliche Werte: reasoning
Yes

OpenAI.ReasoningItemResource

Eine Beschreibung der Gedankenkette, die von einem Begründungsmodell beim Generieren einer Antwort verwendet wird. Achten Sie darauf, diese Elemente in die input Antwort-API für nachfolgende Wendungen einer Unterhaltung einzuschließen, wenn Sie den Kontext manuell verwalten.

Name Type Description Required Default
encrypted_content string Der verschlüsselte Inhalt des Begründungselements – aufgefüllt, wenn eine Antwort im reasoning.encrypted_contentinclude Parameter generiert wird. No
summary array Textinhalt wird mit Gründen versehen. Yes
type enum
Mögliche Werte: reasoning
Yes

OpenAI.ReasoningItemSummaryPart

Diskriminator für OpenAI.ReasoningItemSummaryPart

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Type Description Required Default
type OpenAI.ReasoningItemSummaryPartType Yes

OpenAI.ReasoningItemSummaryPartType

Property Value
Type string
Values summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Type Description Required Default
text string Yes
type enum
Mögliche Werte: summary_text
Yes

OpenAI.Response

Name Type Description Required Default
background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. Yes
error object Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. Yes
└─ code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. No
└─ message string Eine lesbare Beschreibung des Fehlers. No
id string Eindeutiger Bezeichner für diese Antwort. Yes
incomplete_details object Details dazu, warum die Antwort unvollständig ist. Yes
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
instructions Zeichenfolge oder Matrix Yes
max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
Yes
output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
Yes
output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. Yes True
previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
prompt object Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ id string Der eindeutige Bezeichner der zu verwendenden Eingabeaufforderungsvorlage. No
└─ variables OpenAI.ResponsePromptVariables Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein. No
└─ version string Optionale Version der Eingabeaufforderungsvorlage. No
reasoning object Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ effort OpenAI.ReasoningEffort Nur o-Serienmodelle

Beschränkt den Aufwand für die Begründung von Begründungsmodellen.
Derzeit unterstützte Werte sind low, mediumund high. Das Reduzieren von Gründen kann zu schnelleren Antworten und weniger Token führen, die bei der Begründung in einer Antwort verwendet werden.
No
└─ generate_summary enum Veraltet: Verwenden Sie summary stattdessen.

Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
└─ summary enum Eine Zusammenfassung der vom Modell durchgeführten Begründung. Dies kann hilfreich sein, um das Debuggen und Verstehen des Begründungsprozesses des Modells zu verstehen.
Einer von auto, concise, oder detailed.
Mögliche Werte: auto, , concisedetailed
No
status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
Yes
text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
No
└─ type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. No
tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
Yes
truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. Yes

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Wird ausgegeben, wenn ein partieller Codeausschnitt vom Codedolmetscher gestreamt wird.

Name Type Description Required Default
delta string Der partielle Codeausschnitt, der vom Codedolmetscher gestreamt wird. Yes
item_id string Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code gestreamt wird. Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call_code.delta.
Mögliche Werte: response.code_interpreter_call_code.delta
Yes

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Wird ausgegeben, wenn der Codeausschnitt vom Codedolmetscher abgeschlossen wird.

Name Type Description Required Default
code string Die endgültige Codeausschnittausgabe des Codedolmetschers. Yes
item_id string Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Code abgeschlossen ist. Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call_code.done.
Mögliche Werte: response.code_interpreter_call_code.done
Yes

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Wird ausgegeben, wenn der Codedolmetscheraufruf abgeschlossen ist.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Codedolmetscheraufruf abgeschlossen ist. Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.completed.
Mögliche Werte: response.code_interpreter_call.completed
Yes

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Wird ausgegeben, wenn ein Codedolmetscheraufruf ausgeführt wird.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Codedolmetscheraufruf ausgeführt wird. Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.in_progress.
Mögliche Werte: response.code_interpreter_call.in_progress
Yes

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Wird ausgegeben, wenn der Codedolmetscher den Codeausschnitt aktiv interpretiert.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des Codedolmetscher-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements in der Antwort, für die der Codedolmetscher Code interpretiert. Yes
type enum Der Typ des Ereignisses. Immer response.code_interpreter_call.interpreting.
Mögliche Werte: response.code_interpreter_call.interpreting
Yes

OpenAI.ResponseCompletedEvent

Wird ausgegeben, wenn die Modellantwort abgeschlossen ist.

Name Type Description Required Default
response object Yes
└─ background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
└─ created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. No
└─ error OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. No
└─ id string Eindeutiger Bezeichner für diese Antwort. No
└─ incomplete_details object Details dazu, warum die Antwort unvollständig ist. No
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
└─ instructions Zeichenfolge oder Matrix Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
└─ max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
└─ max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
No
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
No
└─ output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
└─ parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
└─ previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
└─ prompt OpenAI.Prompt Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
└─ temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No
└─ text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. No
└─ tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
└─ top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
└─ top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No
└─ truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
└─ usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
└─ user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
type enum Der Typ des Ereignisses. Immer response.completed.
Mögliche Werte: response.completed
Yes

OpenAI.ResponseContentPartAddedEvent

Wird ausgegeben, wenn ein neuer Inhaltsteil hinzugefügt wird.

Name Type Description Required Default
content_index integer Der Index des hinzugefügten Inhaltsteils. Yes
item_id string Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Yes
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Yes
part object Yes
└─ type OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. No
type enum Der Typ des Ereignisses. Immer response.content_part.added.
Mögliche Werte: response.content_part.added
Yes

OpenAI.ResponseContentPartDoneEvent

Wird ausgegeben, wenn ein Inhaltsteil abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, der abgeschlossen ist. Yes
item_id string Die ID des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Yes
output_index integer Der Index des Ausgabeelements, dem der Inhaltsteil hinzugefügt wurde. Yes
part object Yes
└─ type OpenAI.ItemContentType Mehr modaler Eingabe- und Ausgabeinhalt. No
type enum Der Typ des Ereignisses. Immer response.content_part.done.
Mögliche Werte: response.content_part.done
Yes

OpenAI.ResponseCreatedEvent

Ein Ereignis, das beim Erstellen einer Antwort ausgegeben wird.

Name Type Description Required Default
response object Yes
└─ background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
└─ created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. No
└─ error OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. No
└─ id string Eindeutiger Bezeichner für diese Antwort. No
└─ incomplete_details object Details dazu, warum die Antwort unvollständig ist. No
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
└─ instructions Zeichenfolge oder Matrix Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
└─ max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
└─ max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
No
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
No
└─ output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
└─ parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
└─ previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
└─ prompt OpenAI.Prompt Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ status enum Der Status der Antwortgenerierung. Einer von completed, failed
in_progress, cancelled, queued, oder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
└─ temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No
└─ text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. No
└─ tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
└─ top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
└─ top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No
└─ truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
└─ usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
└─ user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
type enum Der Typ des Ereignisses. Immer response.created.
Mögliche Werte: response.created
Yes

OpenAI.ResponseError

Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert.

Name Type Description Required Default
code OpenAI.ResponseErrorCode Der Fehlercode für die Antwort. Yes
message string Eine lesbare Beschreibung des Fehlers. Yes

OpenAI.ResponseErrorCode

Der Fehlercode für die Antwort.

Property Value
Description Der Fehlercode für die Antwort.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Wird ausgegeben, wenn ein Fehler auftritt.

Name Type Description Required Default
code string Der Fehlercode. Yes
message string Die Fehlermeldung. Yes
param string Der Fehlerparameter. Yes
type enum Der Typ des Ereignisses. Immer error.
Mögliche Werte: error
Yes

OpenAI.ResponseFailedEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort fehlschlägt.

Name Type Description Required Default
response object Yes
└─ background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
└─ created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. No
└─ error OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. No
└─ id string Eindeutiger Bezeichner für diese Antwort. No
└─ incomplete_details object Details dazu, warum die Antwort unvollständig ist. No
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
└─ instructions Zeichenfolge oder Matrix Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
└─ max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
└─ max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
No
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
No
└─ output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
└─ parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
└─ previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
└─ prompt OpenAI.Prompt Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
└─ temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No
└─ text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. No
└─ tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
└─ top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
└─ top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No
└─ truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
└─ usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
└─ user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
type enum Der Typ des Ereignisses. Immer response.failed.
Mögliche Werte: response.failed
Yes

OpenAI.ResponseFileSearchCallCompletedEvent

Wird ausgegeben, wenn ein Dateisuchaufruf abgeschlossen ist (Ergebnisse gefunden).

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. Yes
output_index integer Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird. Yes
type enum Der Typ des Ereignisses. Immer response.file_search_call.completed.
Mögliche Werte: response.file_search_call.completed
Yes

OpenAI.ResponseFileSearchCallInProgressEvent

Wird ausgegeben, wenn ein Dateisuchaufruf initiiert wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. Yes
output_index integer Der Index des Ausgabeelements, das der Dateisuchaufruf initiiert wird. Yes
type enum Der Typ des Ereignisses. Immer response.file_search_call.in_progress.
Mögliche Werte: response.file_search_call.in_progress
Yes

OpenAI.ResponseFileSearchCallSearchingEvent

Wird ausgegeben, wenn eine Dateisuche zurzeit durchsucht wird.

Name Type Description Required Default
item_id string Die ID des Ausgabeelements, das der Dateisuchaufruf initiiert wird. Yes
output_index integer Der Index des Ausgabeelements, nach dem der Dateisuchaufruf durchsucht wird. Yes
type enum Der Typ des Ereignisses. Immer response.file_search_call.searching.
Mögliche Werte: response.file_search_call.searching
Yes

OpenAI.ResponseFormat

Diskriminator für OpenAI.ResponseFormat

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Type Description Required Default
type enum
Mögliche Werte: text, , json_objectjson_schema
Yes

OpenAI.ResponseFormatJsonObject

JSON-Objektantwortformat. Eine ältere Methode zum Generieren von JSON-Antworten. Die Verwendung json_schema wird für Modelle empfohlen, die sie unterstützen. Beachten Sie, dass das Modell keine JSON ohne System- oder Benutzermeldung generiert, in der es dazu angewiesen wird.

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats. Immer json_object.
Mögliche Werte: json_object
Yes

OpenAI.ResponseFormatJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren.

Name Type Description Required Default
json_schema object Konfigurationsoptionen für strukturierte Ausgaben, einschließlich eines JSON-Schemas. Yes
└─ description string Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. No
└─ name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. No
└─ schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
No
└─ strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true.
No False
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Mögliche Werte: json_schema
Yes

OpenAI.ResponseFormatJsonSchemaSchema

Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird. Hier erfahren Sie, wie Sie JSON-Schemas erstellen.

Type: object

OpenAI.ResponseFormatText

Standardantwortformat. Wird verwendet, um Textantworten zu generieren.

Name Type Description Required Default
type enum Der Typ des zu definierenden Antwortformats. Immer text.
Mögliche Werte: text
Yes

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein partielles Funktionsaufrufargumentdelta vorhanden ist.

Name Type Description Required Default
delta string Die hinzugefügten Funktionsaufrufargumente. Yes
item_id string Die ID des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. Yes
output_index integer Der Index des Ausgabeelements, dem die Funktionsaufrufargumente delta hinzugefügt werden. Yes
type enum Der Typ des Ereignisses. Immer response.function_call_arguments.delta.
Mögliche Werte: response.function_call_arguments.delta
Yes

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Wird ausgegeben, wenn Funktionsaufrufargumente abgeschlossen werden.

Name Type Description Required Default
arguments string Die Funktionsaufrufargumente. Yes
item_id string Die ID des Elements. Yes
output_index integer Der Index des Ausgabeelements. Yes
type enum
Mögliche Werte: response.function_call_arguments.done
Yes

OpenAI.ResponseImageGenCallCompletedEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung abgeschlossen ist und das endgültige Bild verfügbar ist.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.image_generation_call.completed'.
Mögliche Werte: response.image_generation_call.completed
Yes

OpenAI.ResponseImageGenCallGeneratingEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung aktiv ein Bild (Zwischenzustand) generiert.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.image_generation_call.generating'.
Mögliche Werte: response.image_generation_call.generating
Yes

OpenAI.ResponseImageGenCallInProgressEvent

Wird ausgegeben, wenn ein Aufruf des Tools zur Bildgenerierung ausgeführt wird.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.image_generation_call.in_progress'.
Mögliche Werte: response.image_generation_call.in_progress
Yes

OpenAI.ResponseImageGenCallPartialImageEvent

Wird ausgegeben, wenn ein Teilbild während des Streamings der Bildgenerierung verfügbar ist.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des verarbeiteten Bildgenerierungselements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
partial_image_b64 string Base64-codierte Teilbilddaten, die für das Rendern als Bild geeignet sind. Yes
partial_image_index integer 0-basierter Index für das Teilbild (Back-End ist 1-basiert, dies ist jedoch 0-basiert für den Benutzer). Yes
type enum Der Typ des Ereignisses. Always 'response.image_generation_call.partial_image'.
Mögliche Werte: response.image_generation_call.partial_image
Yes

OpenAI.ResponseInProgressEvent

Wird ausgegeben, wenn die Antwort ausgeführt wird.

Name Type Description Required Default
response object Yes
└─ background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
└─ created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. No
└─ error OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. No
└─ id string Eindeutiger Bezeichner für diese Antwort. No
└─ incomplete_details object Details dazu, warum die Antwort unvollständig ist. No
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
└─ instructions Zeichenfolge oder Matrix Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
└─ max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
└─ max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
No
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
No
└─ output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
└─ parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
└─ previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
└─ prompt OpenAI.Prompt Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
└─ temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No
└─ text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. No
└─ tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
└─ top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
└─ top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No
└─ truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
└─ usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
└─ user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
type enum Der Typ des Ereignisses. Immer response.in_progress.
Mögliche Werte: response.in_progress
Yes

OpenAI.ResponseIncompleteEvent

Ein Ereignis, das ausgegeben wird, wenn eine Antwort als unvollständig abgeschlossen ist.

Name Type Description Required Default
response object Yes
└─ background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
└─ created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. No
└─ error OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. No
└─ id string Eindeutiger Bezeichner für diese Antwort. No
└─ incomplete_details object Details dazu, warum die Antwort unvollständig ist. No
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
└─ instructions Zeichenfolge oder Matrix Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
└─ max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
└─ max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
No
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
No
└─ output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
└─ parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
└─ previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
└─ prompt OpenAI.Prompt Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
└─ temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No
└─ text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. No
└─ tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
└─ top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
└─ top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No
└─ truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
└─ usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
└─ user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
type enum Der Typ des Ereignisses. Immer response.incomplete.
Mögliche Werte: response.incomplete
Yes

OpenAI.ResponseItemList

Eine Liste der Antwortelemente.

Name Type Description Required Default
data array Eine Liste der Elemente, die zum Generieren dieser Antwort verwendet werden. Yes
first_id string Die ID des ersten Elements in der Liste. Yes
has_more boolean Gibt an, ob weitere Elemente verfügbar sind. Yes
last_id string Die ID des letzten Elements in der Liste. Yes
object enum Der Typ des zurückgegebenen Objekts muss sein list.
Mögliche Werte: list
Yes

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Wird ausgegeben, wenn ein Delta (partielle Aktualisierung) für die Argumente eines MCP-Toolaufrufs vorhanden ist.

Name Type Description Required Default
delta Die teilweise Aktualisierung der Argumente für den MCP-Toolaufruf. Yes
item_id string Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.mcp_call.arguments_delta'.
Mögliche Werte: response.mcp_call.arguments_delta
Yes

OpenAI.ResponseMCPCallArgumentsDoneEvent

Wird ausgegeben, wenn die Argumente für einen MCP-Toolaufruf abgeschlossen werden.

Name Type Description Required Default
arguments Die abgeschlossenen Argumente für den MCP-Toolaufruf. Yes
item_id string Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.mcp_call.arguments_done'.
Mögliche Werte: response.mcp_call.arguments_done
Yes

OpenAI.ResponseMCPCallCompletedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf erfolgreich abgeschlossen wurde.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Always 'response.mcp_call.completed'.
Mögliche Werte: response.mcp_call.completed
Yes

OpenAI.ResponseMCPCallFailedEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf fehlgeschlagen ist.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Always 'response.mcp_call.failed'.
Mögliche Werte: response.mcp_call.failed
Yes

OpenAI.ResponseMCPCallInProgressEvent

Wird ausgegeben, wenn ein MCP-Toolaufruf ausgeführt wird.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des verarbeiteten MCP-Toolaufrufelements. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.mcp_call.in_progress'.
Mögliche Werte: response.mcp_call.in_progress
Yes

OpenAI.ResponseMCPListToolsCompletedEvent

Wird ausgegeben, wenn die Liste der verfügbaren MCP-Tools erfolgreich abgerufen wurde.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Always 'response.mcp_list_tools.completed'.
Mögliche Werte: response.mcp_list_tools.completed
Yes

OpenAI.ResponseMCPListToolsFailedEvent

Wird ausgegeben, wenn der Versuch, die verfügbaren MCP-Tools auflisten, fehlgeschlagen ist.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Always 'response.mcp_list_tools.failed'.
Mögliche Werte: response.mcp_list_tools.failed
Yes

OpenAI.ResponseMCPListToolsInProgressEvent

Wird ausgegeben, wenn sich das System im Prozess des Abrufens der Liste der verfügbaren MCP-Tools befindet.

Name Type Description Required Default
type enum Der Typ des Ereignisses. Always 'response.mcp_list_tools.in_progress'.
Mögliche Werte: response.mcp_list_tools.in_progress
Yes

OpenAI.ResponseOutputItemAddedEvent

Wird ausgegeben, wenn ein neues Ausgabeelement hinzugefügt wird.

Name Type Description Required Default
item object Inhaltselement, das zum Generieren einer Antwort verwendet wird. Yes
└─ id string No
└─ type OpenAI.ItemType No
output_index integer Der Index des Ausgabeelements, das hinzugefügt wurde. Yes
type enum Der Typ des Ereignisses. Immer response.output_item.added.
Mögliche Werte: response.output_item.added
Yes

OpenAI.ResponseOutputItemDoneEvent

Wird ausgegeben, wenn ein Ausgabeelement als erledigt markiert wird.

Name Type Description Required Default
item object Inhaltselement, das zum Generieren einer Antwort verwendet wird. Yes
└─ id string No
└─ type OpenAI.ItemType No
output_index integer Der Index des Ausgabeelements, das als erledigt markiert wurde. Yes
type enum Der Typ des Ereignisses. Immer response.output_item.done.
Mögliche Werte: response.output_item.done
Yes

OpenAI.ResponsePromptVariables

Optionale Zuordnung von Werten, die durch Variablen in Ihrer Eingabeaufforderung ersetzt werden sollen. Die Ersetzungswerte können entweder Zeichenfolgen oder andere Antworteingabetypen wie Bilder oder Dateien sein.

Type: object

OpenAI.ResponseQueuedEvent

Wird ausgegeben, wenn eine Antwort in die Warteschlange gestellt wird und darauf wartet, verarbeitet zu werden.

Name Type Description Required Default
response object Yes
└─ background boolean Gibt an, ob die Modellantwort im Hintergrund ausgeführt werden soll. No False
└─ created_at integer Unix-Zeitstempel (in Sekunden) des Zeitpunkts der Erstellung dieser Antwort. No
└─ error OpenAI.ResponseError Ein Fehlerobjekt, das zurückgegeben wird, wenn das Modell keine Antwort generiert. No
└─ id string Eindeutiger Bezeichner für diese Antwort. No
└─ incomplete_details object Details dazu, warum die Antwort unvollständig ist. No
└─ reason enum Der Grund, warum die Antwort unvollständig ist.
Mögliche Werte: max_output_tokens, content_filter
No
└─ instructions Zeichenfolge oder Matrix Eine Systemnachricht (oder Entwicklernachricht), die in den Kontext des Modells eingefügt wurde.

Bei Verwendung dieser previous_response_idAntwort werden die Anweisungen aus einer vorherigen Antwort nicht an die nächste Antwort übertragen. Dies erleichtert das Austauschen von Systemnachrichten (oder Entwicklernachrichten) in neuen Antworten.
No
└─ max_output_tokens integer Eine obere Grenze für die Anzahl der Token, die für eine Antwort generiert werden können, einschließlich sichtbarer Ausgabetoken und Begründungstoken No
└─ max_tool_calls integer Die maximale Anzahl der Aufrufe an integrierte Tools, die in einer Antwort verarbeitet werden können. Diese maximale Anzahl gilt für alle integrierten Toolaufrufe, nicht pro einzelnes Tool. Alle weiteren Versuche, ein Tool durch das Modell aufzurufen, werden ignoriert. No
└─ metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
└─ object enum Der Objekttyp dieser Ressource - immer auf .response
Mögliche Werte: response
No
└─ output array Ein Array von Inhaltselementen, die vom Modell generiert werden.

- Die Länge und Reihenfolge der Elemente im output Array hängt von der Antwort des Modells ab.
– Anstatt auf das erste Element im output Array zuzugreifen und davon auszugehen, dass es sich um eine assistant Nachricht mit dem vom Modell generierten Inhalt handelt, können Sie die Verwendung der output_text Eigenschaft, die in SDKs unterstützt wird, in Betracht ziehen.
No
└─ output_text string Nur-SDK-Komforteigenschaft, die die aggregierte Textausgabe aller output_text Elemente im output Array enthält, sofern vorhanden.
Unterstützt in den Python- und JavaScript-SDKs.
No
└─ parallel_tool_calls boolean Gibt an, ob das Modell Toolaufrufe parallel ausführen darf. No True
└─ previous_response_id string Die eindeutige ID der vorherigen Antwort auf das Modell. Verwenden Sie diese Option, um Multi-Turn-Unterhaltungen zu erstellen. No
└─ prompt OpenAI.Prompt Verweisen Sie auf eine Eingabeaufforderungsvorlage und deren Variablen. No
└─ reasoning OpenAI.Reasoning Nur o-Serienmodelle

Konfigurationsoptionen für Begründungsmodelle.
No
└─ status enum Der Status der Antwortgenerierung. Einer von completed, failed, in_progress, , cancelled, , queuedoder incomplete.
Mögliche Werte: completed, , failed, in_progresscancelled, , , queuedincomplete
No
└─ temperature number Welche Probenahmetemperatur verwendet werden soll, zwischen 0 und 2. Höhere Werte wie 0,8 machen die Ausgabe zufälliger, während niedrigere Werte wie 0,2 sie fokussierter und deterministisch machen.
Es wird in der Regel empfohlen, dies oder top_p nicht beides zu ändern.
No
└─ text object Konfigurationsoptionen für eine Textantwort aus dem Modell. Kann Nur-Text- oder strukturierte JSON-Daten sein. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions oder OpenAI.ToolChoiceObject Wie das Modell auswählen soll, welches Tool (oder welche Tools) beim Generieren einer Antwort verwendet werden soll. Sehen Sie sich den tools Parameter an, um zu sehen, wie Sie angeben, welche Tools das Modell aufrufen kann. No
└─ tools array Ein Array von Tools, die das Modell aufrufen kann, während eine Antwort generiert wird. Sie können angeben, welches Tool verwendet werden soll, indem Sie den tool_choice Parameter festlegen.

Die beiden Kategorien von Tools, die Sie bereitstellen können, sind:

- Integrierte Tools: Tools, die von OpenAI bereitgestellt werden, die die Funktionen des Modells erweitern.
No
└─ top_logprobs integer Eine ganze Zahl zwischen 0 und 20, die die Anzahl der höchstwahrscheinlichen Token an jeder Tokenposition angibt, jeweils mit einer zugeordneten Protokollwahrscheinlichkeit. No
└─ top_p number Eine Alternative zur Probenahme mit Temperatur, die als Kernsampling bezeichnet wird, wobei das Modell die Ergebnisse der Token mit top_p Wahrscheinlichkeitsmasse berücksichtigt. 0,1 bedeutet also, dass nur die Token, die die obersten 10% Wahrscheinlichkeitsmasse umfassen, berücksichtigt werden.

Es wird in der Regel empfohlen, dies oder temperature nicht beides zu ändern.
No
└─ truncation enum Die Abkürzungsstrategie, die für die Modellantwort verwendet werden soll.
- auto: Wenn der Kontext dieser Antwort und früherer Antworten die Größe des Kontextfensters des Modells überschreitet, schneidet das Modell die Antwort ab, um das Kontextfenster anzupassen, indem Eingabeelemente in der Mitte der Unterhaltung gelöscht werden.
- disabled (Standard): Wenn eine Modellantwort die Kontextfenstergröße für ein Modell überschreitet, schlägt die Anforderung mit einem Fehler von 400 fehl.
Mögliche Werte: auto, disabled
No
└─ usage OpenAI.ResponseUsage Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar. No
└─ user string Ein eindeutiger Bezeichner, der Ihren Endbenutzer darstellt, der OpenAI dabei helfen kann, Missbrauch zu überwachen und zu erkennen. No
type enum Der Typ des Ereignisses. Always 'response.queued'.
Mögliche Werte: response.queued
Yes

OpenAI.ResponseReasoningDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Grundinhalt vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Grundinhaltsteils innerhalb des Ausgabeelements. Yes
delta Das partielle Update auf den Inhalt der Begründung. Yes
item_id string Der eindeutige Bezeichner des Elements, für das die Ursache aktualisiert wird. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
type enum Der Typ des Ereignisses. Always 'response.reasoning.delta'.
Mögliche Werte: response.reasoning.delta
Yes

OpenAI.ResponseReasoningDoneEvent

Wird ausgegeben, wenn der Grundinhalt für ein Element abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Grundinhaltsteils innerhalb des Ausgabeelements. Yes
item_id string Der eindeutige Bezeichner des Elements, für das die Begründung abgeschlossen ist. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
text string Der abschließende Text für die Begründung. Yes
type enum Der Typ des Ereignisses. Always 'response.reasoning.done'.
Mögliche Werte: response.reasoning.done
Yes

OpenAI.ResponseReasoningSummaryDeltaEvent

Wird ausgegeben, wenn ein Delta (teilweise Aktualisierung) für den Zusammenfassungsinhalt der Gründe vorhanden ist.

Name Type Description Required Default
delta Die partielle Aktualisierung des Zusammenfassungsinhalts für die Begründung. Yes
item_id string Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe aktualisiert wird. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
summary_index integer Der Index des Zusammenfassungsteils innerhalb des Ausgabeelements. Yes
type enum Der Typ des Ereignisses. Always 'response.reasoning_summary.delta'.
Mögliche Werte: response.reasoning_summary.delta
Yes

OpenAI.ResponseReasoningSummaryDoneEvent

Wird ausgegeben, wenn der Zusammenfassungsinhalt der Gründe für ein Element abgeschlossen ist.

Name Type Description Required Default
item_id string Der eindeutige Bezeichner des Elements, für das die Zusammenfassung der Gründe abgeschlossen ist. Yes
output_index integer Der Index des Ausgabeelements im Ausgabearray der Antwort. Yes
summary_index integer Der Index des Zusammenfassungsteils innerhalb des Ausgabeelements. Yes
text string Der abschließende Zusammenfassungstext für die Begründung. Yes
type enum Der Typ des Ereignisses. Always 'response.reasoning_summary.done'.
Mögliche Werte: response.reasoning_summary.done
Yes

OpenAI.ResponseReasoningSummaryPartAddedEvent

Wird ausgegeben, wenn ein neuer Zusammenfassungsteil für die Begründung hinzugefügt wird.

Name Type Description Required Default
item_id string Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Yes
part object Yes
└─ type OpenAI.ReasoningItemSummaryPartType No
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. Yes
type enum Der Typ des Ereignisses. Immer response.reasoning_summary_part.added.
Mögliche Werte: response.reasoning_summary_part.added
Yes

OpenAI.ResponseReasoningSummaryPartDoneEvent

Wird ausgegeben, wenn ein Zusammenfassungsteil für die Begründung abgeschlossen ist.

Name Type Description Required Default
item_id string Die ID des Elements, dem dieser Zusammenfassungsteil zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungsteil zugeordnet ist. Yes
part object Yes
└─ type OpenAI.ReasoningItemSummaryPartType No
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. Yes
type enum Der Typ des Ereignisses. Immer response.reasoning_summary_part.done.
Mögliche Werte: response.reasoning_summary_part.done
Yes

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Wird ausgegeben, wenn ein Delta zu einem Zusammenfassungstext für die Begründung hinzugefügt wird.

Name Type Description Required Default
delta string Das Textdelta, das der Zusammenfassung hinzugefügt wurde. Yes
item_id string Die ID des Elements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem dieses Zusammenfassungstextdelta zugeordnet ist. Yes
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. Yes
type enum Der Typ des Ereignisses. Immer response.reasoning_summary_text.delta.
Mögliche Werte: response.reasoning_summary_text.delta
Yes

OpenAI.ResponseReasoningSummaryTextDoneEvent

Wird ausgegeben, wenn ein Grundübersichtstext abgeschlossen ist.

Name Type Description Required Default
item_id string Die ID des Elements, dem dieser Zusammenfassungstext zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem dieser Zusammenfassungstext zugeordnet ist. Yes
summary_index integer Der Index des Zusammenfassungsteils innerhalb der Zusammenfassung der Begründung. Yes
text string Der vollständige Text der vollständigen Zusammenfassung der Begründung. Yes
type enum Der Typ des Ereignisses. Immer response.reasoning_summary_text.done.
Mögliche Werte: response.reasoning_summary_text.done
Yes

OpenAI.ResponseRefusalDeltaEvent

Wird ausgegeben, wenn ein Teilverweigerungstext vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dem der Ablehnungstext hinzugefügt wird. Yes
delta string Der Verweigerungstext, der hinzugefügt wird. Yes
item_id string Die ID des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Yes
output_index integer Der Index des Ausgabeelements, dem der Ablehnungstext hinzugefügt wird. Yes
type enum Der Typ des Ereignisses. Immer response.refusal.delta.
Mögliche Werte: response.refusal.delta
Yes

OpenAI.ResponseRefusalDoneEvent

Wird ausgegeben, wenn der Ablehnungstext abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, den der Ablehnungstext abgeschlossen hat. Yes
item_id string Die ID des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. Yes
output_index integer Der Index des Ausgabeelements, für das der Ablehnungstext abgeschlossen ist. Yes
refusal string Der Verweigerungstext, der abgeschlossen ist. Yes
type enum Der Typ des Ereignisses. Immer response.refusal.done.
Mögliche Werte: response.refusal.done
Yes

OpenAI.ResponseStreamEvent

Diskriminator für OpenAI.ResponseStreamEvent

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Type Description Required Default
sequence_number integer Die Sequenznummer für dieses Ereignis. Yes
type OpenAI.ResponseStreamEventType Yes

OpenAI.ResponseStreamEventType

Property Value
Type string
Values response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Wird ausgegeben, wenn ein zusätzliches Textdelta vorhanden ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, dem das Textdelta hinzugefügt wurde. Yes
delta string Das Textdelta, das hinzugefügt wurde. Yes
item_id string Die ID des Ausgabeelements, dem das Textdelta hinzugefügt wurde. Yes
output_index integer Der Index des Ausgabeelements, dem das Textdelta hinzugefügt wurde. Yes
type enum Der Typ des Ereignisses. Immer response.output_text.delta.
Mögliche Werte: response.output_text.delta
Yes

OpenAI.ResponseTextDoneEvent

Wird ausgegeben, wenn Der Textinhalt abgeschlossen ist.

Name Type Description Required Default
content_index integer Der Index des Inhaltsteils, den der Textinhalt abgeschlossen hat. Yes
item_id string Die ID des Ausgabeelements, das der Textinhalt abgeschlossen ist. Yes
output_index integer Der Index des Ausgabeelements, für das der Textinhalt abgeschlossen ist. Yes
text string Der textinhalt, der abgeschlossen ist. Yes
type enum Der Typ des Ereignisses. Immer response.output_text.done.
Mögliche Werte: response.output_text.done
Yes

OpenAI.ResponseTextFormatConfiguration

Diskriminator für OpenAI.ResponseTextFormatConfiguration

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Type Description Required Default
type OpenAI.ResponseTextFormatConfigurationType Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren von { "type": "json_schema" } strukturierten Ausgaben wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt. Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.
Yes

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Type Description Required Default
type enum
Mögliche Werte: json_object
Yes

OpenAI.ResponseTextFormatConfigurationJsonSchema

JSON-Schemaantwortformat. Wird verwendet, um strukturierte JSON-Antworten zu generieren.

Name Type Description Required Default
description string Eine Beschreibung des Antwortformats, für das das Modell verwendet wird, um zu bestimmen, wie das Format reagiert. No
name string Der Name des Antwortformats. Muss a-z, A-Z, 0-9 sein oder Unterstriche und Gedankenstriche enthalten, mit einer maximalen Länge von 64. Yes
schema OpenAI.ResponseFormatJsonSchemaSchema Das Schema für das Antwortformat, das als JSON-Schemaobjekt beschrieben wird.
Hier erfahren Sie, wie Sie JSON-Schemas erstellen.
Yes
strict boolean Gibt an, ob die strikte Schematreue beim Generieren der Ausgabe aktiviert werden soll.
Bei Festlegung auf "true" folgt das Modell immer dem genauen Schema, das schema im Feld definiert ist. Es wird nur eine Teilmenge des JSON-Schemas unterstützt, wenn strict dies der Zeitpunkt ist true.
No False
type enum Der Typ des zu definierenden Antwortformats. Immer json_schema.
Mögliche Werte: json_schema
Yes

OpenAI.ResponseTextFormatConfigurationText

Name Type Description Required Default
type enum
Mögliche Werte: text
Yes

OpenAI.ResponseTextFormatConfigurationType

Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren von { "type": "json_schema" } strukturierten Ausgaben wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schema wird für Modelle bevorzugt, die sie unterstützen.

Property Value
Description Ein Objekt, das das Format angibt, das das Modell ausgeben muss.

Durch das Konfigurieren von { "type": "json_schema" } strukturierten Ausgaben wird sichergestellt, dass das Modell mit Ihrem bereitgestellten JSON-Schema übereinstimmt.

Das Standardformat ist { "type": "text" } ohne zusätzliche Optionen verfügbar.

Nicht empfohlen für gpt-4o und neuere Modelle:

Einstellung, um den älteren JSON-Modus zu { "type": "json_object" } aktivieren, wodurch sichergestellt wird, dass die Nachricht, die das Modell generiert, gültig JSON ist. Die Verwendung json_schemawird für Modelle bevorzugt, die sie unterstützen.

OpenAI.ResponseUsage

Stellt Tokenverwendungsdetails wie Eingabetoken, Ausgabetoken, eine Aufschlüsselung der Ausgabetoken und die verwendeten Gesamttoken dar.

Name Type Description Required Default
input_tokens integer Die Anzahl der Eingabetoken. Yes
input_tokens_details object Eine detaillierte Aufschlüsselung der Eingabetoken. Yes
└─ cached_tokens integer Die Anzahl der Token, die aus dem Cache abgerufen wurden. No
output_tokens integer Die Anzahl der Ausgabetoken. Yes
output_tokens_details object Eine detaillierte Aufschlüsselung der Ausgabetoken. Yes
└─ reasoning_tokens integer Die Anzahl der Gründe für Token. No
total_tokens integer Die Gesamtzahl der verwendeten Token. Yes

OpenAI.ResponseWebSearchCallCompletedEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
item_id string Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Yes
type enum Der Typ des Ereignisses. Immer response.web_search_call.completed.
Mögliche Werte: response.web_search_call.completed
Yes

OpenAI.ResponseWebSearchCallInProgressEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
item_id string Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Yes
type enum Der Typ des Ereignisses. Immer response.web_search_call.in_progress.
Mögliche Werte: response.web_search_call.in_progress
Yes

OpenAI.ResponseWebSearchCallSearchingEvent

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
item_id string Eindeutige ID für das Ausgabeelement, das dem Websuchaufruf zugeordnet ist. Yes
output_index integer Der Index des Ausgabeelements, dem der Websuchaufruf zugeordnet ist. Yes
type enum Der Typ des Ereignisses. Immer response.web_search_call.searching.
Mögliche Werte: response.web_search_call.searching
Yes

OpenAI.ResponsesAssistantMessageItemParam

Ein Nachrichtenparameterelement mit der assistant Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer assistantist.
Mögliche Werte: assistant
Yes

OpenAI.ResponsesAssistantMessageItemResource

Ein Nachrichtenressourcenelement mit der assistant Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer assistantist.
Mögliche Werte: assistant
Yes

OpenAI.ResponsesDeveloperMessageItemParam

Ein Nachrichtenparameterelement mit der developer Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer developerist.
Mögliche Werte: developer
Yes

OpenAI.ResponsesDeveloperMessageItemResource

Ein Nachrichtenressourcenelement mit der developer Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer developerist.
Mögliche Werte: developer
Yes

OpenAI.ResponsesMessageItemParam

Ein Antwortnachrichtelement, das eine Rolle und einen Inhalt darstellt, wie als Clientanforderungsparameter angegeben.

Diskriminator für OpenAI.ResponsesMessageItemParam

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Type Description Required Default
role object Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Yes
type enum Der Typ des Antwortelements, das immer "Nachricht" ist.
Mögliche Werte: message
Yes

OpenAI.ResponsesMessageItemResource

Ein Ressourcenelement für Antwortnachrichten, das eine Rolle und inhalte darstellt, wie in Dienstantworten angegeben.

Diskriminator für OpenAI.ResponsesMessageItemResource

Diese Komponente verwendet die Eigenschaft role , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Type Description Required Default
role object Die Sammlung gültiger Rollen für Antwortnachrichtenelemente. Yes
status enum Der Status des Elements. Einer von in_progress, completed, oder incomplete. Aufgefüllt, wenn Elemente über DIE API zurückgegeben werden.
Mögliche Werte: in_progress, , completedincomplete
Yes
type enum Der Typ des Antwortelements, das immer "Nachricht" ist.
Mögliche Werte: message
Yes

OpenAI.ResponsesMessageRole

Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.

Property Value
Description Die Sammlung gültiger Rollen für Antwortnachrichtenelemente.
Type string
Values system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Ein Nachrichtenparameterelement mit der system Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer systemist.
Mögliche Werte: system
Yes

OpenAI.ResponsesSystemMessageItemResource

Ein Nachrichtenressourcenelement mit der system Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer systemist.
Mögliche Werte: system
Yes

OpenAI.ResponsesUserMessageItemParam

Ein Nachrichtenparameterelement mit der user Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer userist.
Mögliche Werte: user
Yes

OpenAI.ResponsesUserMessageItemResource

Ein Nachrichtenressourcenelement mit der user Rolle.

Name Type Description Required Default
content array Der inhalt, der der Nachricht zugeordnet ist. Yes
role enum Die Rolle der Nachricht, die immer userist.
Mögliche Werte: user
Yes

OpenAI.RunGraderRequest

Name Type Description Required Default
grader object Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Yes
└─ calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. No
└─ evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
└─ input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. No
└─ model string Das Modell, das für die Auswertung verwendet werden soll. No
└─ name string Der Name des Graders. No
└─ operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
No
└─ range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
└─ reference string Der Text, der abgestuft wird. No
└─ sampling_params Die Samplingparameter für das Modell. No
└─ source string Der Quellcode des Python-Skripts. No
└─ type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
No
item Das Datasetelement, das dem Grader bereitgestellt wird. Dies wird verwendet, um den item Namespace aufzufüllen. No
model_sample string Das zu bewertende Modellbeispiel. Dieser Wert wird verwendet, um den sample Namespace aufzufüllen.
Die output_json Variable wird aufgefüllt, wenn das Modellbeispiel eine gültige JSON-Zeichenfolge ist.
Yes

OpenAI.RunGraderResponse

Name Type Description Required Default
metadata object Yes
└─ errors object No
└─ formula_parse_error boolean No
└─ invalid_variable_error boolean No
└─ model_grader_parse_error boolean No
└─ model_grader_refusal_error boolean No
└─ model_grader_server_error boolean No
└─ model_grader_server_error_details string No
└─ other_error boolean No
└─ python_grader_runtime_error boolean No
└─ python_grader_runtime_error_details string No
└─ python_grader_server_error boolean No
└─ python_grader_server_error_type string No
└─ sample_parse_error boolean No
└─ truncated_observation_error boolean No
└─ unresponsive_reward_error boolean No
└─ execution_time number No
└─ name string No
└─ sampled_model_name string No
└─ scores No
└─ token_usage integer No
└─ type string No
model_grader_token_usage_per_model Yes
reward number Yes
sub_rewards Yes

OpenAI.StaticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Die Anzahl der Token, die sich zwischen Blöcken überlappen. Der Standardwert ist 400.

Beachten Sie, dass die Überlappung nicht die Hälfte von max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Die maximale Anzahl von Token in jedem Block. Der Standardwert ist 800. Der Minimalwert ist 100 und der Maximalwert ist 4096. Yes

OpenAI.StaticChunkingStrategyRequestParam

Passen Sie Ihre eigene Blockierungsstrategie an, indem Sie die Blockgröße und den Block überlappen.

Name Type Description Required Default
static OpenAI.StaticChunkingStrategy Yes
type enum Immer static.
Mögliche Werte: static
Yes

OpenAI.StaticChunkingStrategyResponseParam

Name Type Description Required Default
static OpenAI.StaticChunkingStrategy Yes
type enum Immer static.
Mögliche Werte: static
Yes

OpenAI.StopConfiguration

Nicht unterstützt mit den neuesten Begründungsmodellen o3 und o4-mini.

Bis zu 4 Sequenzen, bei denen die API keine weiteren Token mehr generiert. Der zurückgegebene Text enthält nicht die Stoppsequenz.

Dieses Schema akzeptiert einen der folgenden Typen:

  • string
  • array

OpenAI.Tool

Diskriminator für OpenAI.Tool

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Name Type Description Required Default
type OpenAI.ToolType Ein Tool, das zum Generieren einer Antwort verwendet werden kann. Yes

OpenAI.ToolChoiceObject

Diskriminator für OpenAI.ToolChoiceObject

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Type Description Required Default
type OpenAI.ToolChoiceObjectType Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll. Yes

OpenAI.ToolChoiceObjectCodeInterpreter

Name Type Description Required Default
type enum
Mögliche Werte: code_interpreter
Yes

OpenAI.ToolChoiceObjectComputer

Name Type Description Required Default
type enum
Mögliche Werte: computer_use_preview
Yes

OpenAI.ToolChoiceObjectFileSearch

Name Type Description Required Default
type enum
Mögliche Werte: file_search
Yes

OpenAI.ToolChoiceObjectFunction

Verwenden Sie diese Option, um zu erzwingen, dass das Modell eine bestimmte Funktion aufruft.

Name Type Description Required Default
name string Der Name der funktion, die aufgerufen werden soll. Yes
type enum Bei Funktionsaufrufen ist der Typ immer function.
Mögliche Werte: function
Yes

OpenAI.ToolChoiceObjectImageGen

Name Type Description Required Default
type enum
Mögliche Werte: image_generation
Yes

OpenAI.ToolChoiceObjectMCP

Verwenden Sie diese Option, um zu erzwingen, dass das Modell ein bestimmtes Tool auf einem Remote-MCP-Server aufruft.

Name Type Description Required Default
name string Der Name des Tools, das auf dem Server aufgerufen werden soll. No
server_label string Die Bezeichnung des zu verwendenden MCP-Servers. Yes
type enum Bei MCP-Tools ist der Typ immer mcp.
Mögliche Werte: mcp
Yes

OpenAI.ToolChoiceObjectType

Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.

Property Value
Description Gibt an, dass das Modell ein integriertes Tool zum Generieren einer Antwort verwenden soll.
Type string
Values file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
type enum
Mögliche Werte: web_search_preview
Yes

OpenAI.ToolChoiceOptions

Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.

Property Value
Description Steuert, welches Tool (falls vorhanden) vom Modell aufgerufen wird.

none bedeutet, dass das Modell kein Tool aufruft und stattdessen eine Nachricht generiert.

auto bedeutet, dass das Modell zwischen dem Generieren einer Nachricht oder dem Aufrufen eines oder mehrerer Tools auswählen kann.

required bedeutet, dass das Modell mindestens ein Tools aufrufen muss.
Type string
Values none
auto
required

OpenAI.ToolType

Ein Tool, das zum Generieren einer Antwort verwendet werden kann.

Property Value
Description Ein Tool, das zum Generieren einer Antwort verwendet werden kann.
Type string
Values file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Die oberste Protokollwahrscheinlichkeit eines Tokens.

Name Type Description Required Default
bytes array Yes
logprob number Yes
token string Yes

OpenAI.TranscriptionAudioResponseFormat

References: OpenAI.AudioResponseFormat

OpenAI.TranscriptionInclude

Property Value
Type string
Values logprobs

OpenAI.TranscriptionSegment

Name Type Description Required Default
avg_logprob number Durchschnittliche Protokollprob des Segments. Wenn der Wert niedriger als -1 ist, sollten Sie die Logprobs nicht berücksichtigen. Yes
compression_ratio number Komprimierungsverhältnis des Segments. Wenn der Wert größer als 2,4 ist, sollten Sie die Komprimierung als fehlgeschlagen betrachten. Yes
end number Endzeit des Segments in Sekunden. Yes
id integer Eindeutiger Bezeichner des Segments. Yes
no_speech_prob number Die Wahrscheinlichkeit, dass kein Wort im Segment gesprochen wird. Wenn der Wert höher als 1,0 ist und der avg_logprob Wert unter -1 liegt, sollten Sie dieses Segment unbeaufsichtigt betrachten. Yes
seek integer Suchversatz des Segments. Yes
start number Startzeit des Abschnitts in Sekunden. Yes
temperature number Temperaturparameter, der zum Generieren des Segments verwendet wird. Yes
text string Textinhalt des Segments. Yes
tokens array Array von Token-IDs für den Textinhalt. Yes

OpenAI.TranscriptionWord

Name Type Description Required Default
end number Endzeit des Worts in Sekunden. Yes
start number Startzeit des Worts in Sekunden. Yes
word string Der Textinhalt des Worts. Yes

OpenAI.TranslationAudioResponseFormat

References: OpenAI.AudioResponseFormat

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. Yes

OpenAI.UpdateVectorStoreRequest

Name Type Description Required Default
expires_after object Die Ablaufrichtlinie für einen Vektorspeicher. No
└─ anchor enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Mögliche Werte: last_active_at
No
└─ days integer Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. No
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
No
name string Der Name des Vektorspeichers. No

OpenAI.VadConfig

Name Type Description Required Default
prefix_padding_ms integer Die Menge der Audiodaten, die vor der erkannten VAD-Sprache (in Millisekunden) enthalten sein sollen. No 300
silence_duration_ms integer Dauer der Stille zum Erkennen des Sprachstopps (in Millisekunden).
Mit kürzeren Werten reagiert das Modell schneller, kann aber an kurzen Pausen vom Benutzer teilnehmen.
No 200
threshold number Vertraulichkeitsschwellenwert (0,0 bis 1,0) für die Sprachaktivitätserkennung. Eine höhere Schwelle erfordert lauteres Audio, um das Modell zu aktivieren, und kann daher in lauten Umgebungen besser funktionieren. No 0.5
type enum Muss so festgelegt sein, dass server_vad manuelle Blöcke mithilfe der serverseitigen VAD aktiviert werden.
Mögliche Werte: server_vad
Yes

OpenAI.ValidateGraderRequest

Name Type Description Required Default
grader object Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. Yes
└─ calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. No
└─ evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
└─ input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. No
└─ model string Das Modell, das für die Auswertung verwendet werden soll. No
└─ name string Der Name des Graders. No
└─ operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
No
└─ range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
└─ reference string Der Text, der abgestuft wird. No
└─ sampling_params Die Samplingparameter für das Modell. No
└─ source string Der Quellcode des Python-Skripts. No
└─ type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
No

OpenAI.ValidateGraderResponse

Name Type Description Required Default
grader object Ein StringCheckGrader-Objekt, das einen Zeichenfolgenvergleich zwischen Eingabe und Verweis mithilfe eines angegebenen Vorgangs durchführt. No
└─ calculate_output string Eine Formel zum Berechnen der Ausgabe basierend auf den Benotungsergebnissen. No
└─ evaluation_metric enum Die zu verwendende Auswertungsmetrik. Einer von fuzzy_match, bleu, , gleumeteor, rouge_1, , rouge_2, rouge_3, rouge_4, , oder rouge_5rouge_l.
Mögliche Werte: fuzzy_match, , bleu, gleu, meteorrouge_1, rouge_2, rouge_3, rouge_4, rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Das Bildtag, das für das Python-Skript verwendet werden soll. No
└─ input array Der Eingabetext. Dies kann Vorlagenzeichenfolgen enthalten. No
└─ model string Das Modell, das für die Auswertung verwendet werden soll. No
└─ name string Der Name des Graders. No
└─ operation enum Der auszuführende Zeichenfolgenüberprüfungsvorgang. Einer von eq, ne, , likeoder ilike.
Mögliche Werte: eq, , ne, likeilike
No
└─ range array Der Bereich der Bewertung. Standardwert ist .[0, 1] No
└─ reference string Der Text, der abgestuft wird. No
└─ sampling_params Die Samplingparameter für das Modell. No
└─ source string Der Quellcode des Python-Skripts. No
└─ type enum Der Objekttyp, der immer multiist.
Mögliche Werte: multi
No

OpenAI.VectorStoreExpirationAfter

Die Ablaufrichtlinie für einen Vektorspeicher.

Name Type Description Required Default
anchor enum Ankerzeitstempel, nach dem die Ablaufrichtlinie angewendet wird. Unterstützte Anker: last_active_at.
Mögliche Werte: last_active_at
Yes
days integer Die Anzahl der Tage nach ablaufen der Verankerungszeit des Vektorspeichers. Yes

OpenAI.VectorStoreFileAttributes

Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen.

Type: object

OpenAI.VectorStoreFileBatchObject

Ein Batch von Dateien, die an einen Vektorspeicher angefügt sind.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für die Erstellung des Batches für Vektorspeicherdateien. Yes
file_counts object Yes
└─ cancelled integer Die Anzahl der Dateien, die abgebrochen wurden. No
└─ completed integer Die Anzahl der Dateien, die verarbeitet wurden. No
└─ failed integer Die Anzahl der Dateien, die nicht verarbeitet werden konnten. No
└─ in_progress integer Die Anzahl der Dateien, die derzeit verarbeitet werden. No
└─ total integer Die Gesamtanzahl der Dateien. No
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
object enum Der Objekttyp, der immer vector_store.file_batchist.
Mögliche Werte: vector_store.files_batch
Yes
status enum Der Status des Vektorspeicherdateien-Batches, der entweder in_progress, , oder completedcancelledfailed.
Mögliche Werte: in_progress, , completed, cancelledfailed
Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angefügt ist. Yes

OpenAI.VectorStoreFileObject

Eine Liste von Dateien, die an einen Vektorspeicher angefügt sind.

Name Type Description Required Default
attributes object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen. Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit einer maximalen Länge von 512 Zeichen, Booleanen oder Zahlen. No
chunking_strategy object No
└─ type enum
Mögliche Werte: static, other
No
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung der Vektorspeicherdatei. Yes
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
last_error object Der letzte Fehler, der dieser Vektorspeicherdatei zugeordnet ist. null Wenn keine Fehler vorhanden sind. Yes
└─ code enum Einer von server_error oder rate_limit_exceeded.
Mögliche Werte: server_error, , unsupported_fileinvalid_file
No
└─ message string Eine lesbare Beschreibung des Fehlers. No
object enum Der Objekttyp, der immer vector_store.fileist.
Mögliche Werte: vector_store.file
Yes
status enum Der Status der Vektorspeicherdatei, die entweder in_progress, , completedcancelledoder failed. Der Status completed gibt an, dass die Vektorspeicherdatei einsatzbereit ist.
Mögliche Werte: in_progress, , completed, cancelledfailed
Yes
usage_bytes integer Die Gesamtauslastung des Vektorspeichers in Byte. Beachten Sie, dass sich dies möglicherweise von der ursprünglichen Dateigröße unterscheidet. Yes
vector_store_id string Die ID des Vektorspeichers, an den die Datei angefügt ist. Yes

OpenAI.VectorStoreObject

Ein Vektorspeicher ist eine Sammlung von verarbeiteten Dateien, die file_search vom Tool verwendet werden können.

Name Type Description Required Default
created_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt der Erstellung des Vektorspeichers. Yes
expires_after OpenAI.VectorStoreExpirationAfter Die Ablaufrichtlinie für einen Vektorspeicher. No
expires_at integer Der Unix-Zeitstempel (in Sekunden) für den Ablauf des Vektorspeichers. No
file_counts object Yes
└─ cancelled integer Die Anzahl der Dateien, die abgebrochen wurden. No
└─ completed integer Die Anzahl der Dateien, die erfolgreich verarbeitet wurden. No
└─ failed integer Die Anzahl der Dateien, die nicht verarbeitet werden konnten. No
└─ in_progress integer Die Anzahl der Dateien, die derzeit verarbeitet werden. No
└─ total integer Die Gesamtanzahl der Dateien. No
id string Der Bezeichner, auf den in API-Endpunkten verwiesen werden kann. Yes
last_active_at integer Der Unix-Zeitstempel (in Sekunden) für den Zeitpunkt, zu dem der Vektorspeicher zuletzt aktiv war. Yes
metadata object Satz von 16 Schlüssel-Wert-Paaren, die an ein Objekt angefügt werden können. Dies kann hilfreich sein, um zusätzliche Informationen zum Objekt in einem strukturierten Format zu speichern und Objekte über DIE API oder das Dashboard abzufragen.

Schlüssel sind Zeichenfolgen mit maximal 64 Zeichen. Werte sind Zeichenfolgen mit maximal 512 Zeichen.
Yes
name string Der Name des Vektorspeichers. Yes
object enum Der Objekttyp, der immer vector_storeist.
Mögliche Werte: vector_store
Yes
status enum Der Status des Vektorspeichers, der entweder expired, , in_progressoder completed. Der Status gibt completed an, dass der Vektorspeicher einsatzbereit ist.
Mögliche Werte: expired, , in_progresscompleted
Yes
usage_bytes integer Die Gesamtzahl der Bytes, die von den Dateien im Vektorspeicher verwendet werden. Yes

OpenAI.VoiceIdsShared

Property Value
Type string
Values alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Diskriminator für OpenAI.WebSearchAction

Diese Komponente verwendet die Eigenschaft type , um zwischen verschiedenen Typen zu unterscheiden:

Type Value Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Type Description Required Default
type OpenAI.WebSearchActionType Yes

OpenAI.WebSearchActionFind

Aktionstyp "suchen": Sucht innerhalb einer geladenen Seite nach einem Muster.

Name Type Description Required Default
pattern string Das Muster oder der Text, nach dem innerhalb der Seite gesucht werden soll. Yes
type enum Der Aktionstyp.
Mögliche Werte: find
Yes
url string Die URL der Seite, die nach dem Muster gesucht wurde. Yes

OpenAI.WebSearchActionOpenPage

Aktionstyp "open_page" – Öffnet eine bestimmte URL aus Suchergebnissen.

Name Type Description Required Default
type enum Der Aktionstyp.
Mögliche Werte: open_page
Yes
url string Die URL, die vom Modell geöffnet wurde. Yes

OpenAI.WebSearchActionSearch

Aktionstyp "suche" – Führt eine Websuchabfrage aus.

Name Type Description Required Default
query string Die Suchabfrage. Yes
type enum Der Aktionstyp.
Mögliche Werte: search
Yes

OpenAI.WebSearchActionType

Property Value
Type string
Values search
open_page
find

OpenAI.WebSearchPreviewTool

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
search_context_size enum Allgemeine Anleitung für die Menge des Kontextfensterbereichs, der für die Suche verwendet werden soll. Einer von low, medium, oder high. medium ist der Standardwert.
Mögliche Werte: low, , mediumhigh
No
type enum Der Typ des Websuchtools. Einer von web_search_preview oder web_search_preview_2025_03_11.
Mögliche Werte: web_search_preview
Yes
user_location object No
└─ type OpenAI.LocationType No

OpenAI.WebSearchToolCallItemParam

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
action object Yes
└─ type OpenAI.WebSearchActionType No
type enum
Mögliche Werte: web_search_call
Yes

OpenAI.WebSearchToolCallItemResource

Hinweis: web_search ist noch nicht über Azure OpenAI verfügbar.

Name Type Description Required Default
action object Yes
└─ type OpenAI.WebSearchActionType No
status enum Der Status des Aufrufs des Websuchtools.
Mögliche Werte: in_progress, , searching, completedfailed
Yes
type enum
Mögliche Werte: web_search_call
Yes

PineconeChatDataSource

Name Type Description Required Default
parameters object Die Parameterinformationen zum Steuern der Verwendung der Pinecone-Datenquelle. Yes
└─ allow_partial_result boolean Wenn dieser Wert auf "true" festgelegt ist, lässt das System die Verwendung von Teilsuchergebnissen zu, und die Anforderung schlägt fehl, wenn alle Teilabfragen fehlschlagen. Wenn sie nicht als "false" angegeben oder angegeben wurde, schlägt die Anforderung fehl, wenn eine Suchabfrage fehlschlägt. No False
└─ authentication object No
└─ key string No
└─ type enum
Mögliche Werte: api_key
No
└─ embedding_dependency object Eine Darstellung einer Datenvektorisierungsquelle, die als Einbettungsressource mit einer Datenquelle verwendet werden kann. No
└─ type AzureChatDataSourceVectorizationSourceType Der Unterscheidungsbezeichner für die konkrete Vektorisierungsquelle. No
└─ environment string Der Mit Pinecone zu verwendende Umgebungsname. No
└─ fields_mapping object Feldzuordnungen, die auf daten angewendet werden, die von der Pinecone-Datenquelle verwendet werden.
Beachten Sie, dass Inhaltsfeldzuordnungen für Pinecone erforderlich sind.
No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ in_scope boolean Gibt an, ob Abfragen auf die Verwendung der indizierten Daten beschränkt werden sollen. No
└─ include_contexts array Die Ausgabekontexteigenschaften, die in die Antwort eingeschlossen werden sollen.
Standardmäßig werden Zitate und Absichten angefordert.
No ['citations', 'intent']
└─ index_name string Der Name des zu verwendenden Pinecone-Datenbankindex. No
└─ max_search_queries integer Die maximale Anzahl neu geschriebener Abfragen, die für eine einzelne Benutzernachricht an den Suchanbieter gesendet werden sollen.
Standardmäßig führt das System eine automatische Bestimmung durch.
No
└─ strictness integer Die konfigurierte Strenge der Suchrelevanzfilterung.
Höhere Strenge erhöht die Genauigkeit, aber ein geringerer Rückruf der Antwort.
No
└─ top_n_documents integer Die konfigurierte Anzahl der Dokumente, die in der Abfrage bereitgestellt werden sollen. No
type enum Der diskriminierte Typbezeichner, der immer "Pinecone" ist.
Mögliche Werte: pinecone
Yes

Quality

Die Qualität des abzurufenden Videoinhalts. Dadurch wird die Qualität des Videoinhalts angegeben, der zurückgegeben werden soll.

Property Value
Description Die Qualität des abzurufenden Videoinhalts.
Dadurch wird die Qualität des Videoinhalts angegeben, der zurückgegeben werden soll.
Type string
Values high
low

ResponseFormatJSONSchemaRequest

Name Type Description Required Default
json_schema object JSON-Schema für das Antwortformat Yes
type enum Typ des Antwortformats
Mögliche Werte: json_schema
Yes

ResponseModalities

Ausgabetypen, die vom Modell generiert werden sollen. Die meisten Modelle sind in der Lage, Text zu generieren. Dies ist die Standardeinstellung:

["text"]

Das gpt-4o-audio-preview Modell kann auch zum Generieren von Audio verwendet werden. Um anzufordern, dass dieses Modell sowohl Text- als auch Audioantworten generiert, können Sie Folgendes verwenden:

["text", "audio"]

Array von: Zeichenfolge

SpeechGenerationResponseFormat

Die unterstützten Audioausgabeformate für Text-zu-Sprache.

Diese Komponente kann eine der folgenden Sein:

VideoGeneration

Ergebnis der Videogenerierung.

Name Type Description Required Default
created_at integer Die Zeit, zu der die Videogenerierung erstellt wurde. Yes
height integer Die Höhe des Videos. Yes
id string Die ID der Videogenerierung. Yes
job_id string Die ID des Videogenerierungsauftrags für dieses Video. Yes
n_seconds integer Die Dauer der Videogenerierung. Yes
object enum
Mögliche Werte: video.generation
Yes
prompt string Die Aufforderung für diese Videogenerierung. Yes
width integer Die Breite des Videos. Yes

VideoGenerationJob

Ein Auftrag zur Videogenerierung.

Name Type Description Required Default
created_at integer Der Zeitpunkt, zu dem der Auftrag erstellt wurde. Yes
expires_at integer Der Zeitpunkt, zu dem der Auftrag automatisch aus dem Dienst gelöscht wird. Der Videoinhalt und die Metadaten des Auftrags sollten vor diesem Datum gespeichert werden, um Datenverluste zu vermeiden. No
failure_reason Zeichenfolge (siehe gültige Modelle unten) No
finished_at integer Die Zeit, zu der der Auftrag mit allen Videogenerationen abgeschlossen wurde. No
generations array Die generierten Videos für diesen Auftrag. Die Zahl hängt von der angegebenen n_variants und dem Erfolg der Generationen ab. No
height integer Die Höhe des Videos. Yes
id string Die ID des Auftrags. Yes
inpaint_items array Optionale Inpaintingelemente für diesen Videogenerierungsauftrag. No
model string Der Name der Bereitstellung, die für diesen Auftrag zur Videogenerierung verwendet werden soll. Yes
n_seconds integer Die Dauer des Auftrags zur Videogenerierung. Yes
n_variants integer Die Anzahl der Videos, die als Varianten für diesen Auftrag zur Videogenerierung erstellt werden sollen. Yes
object enum
Mögliche Werte: video.generation.job
Yes
prompt string Die Aufforderung für diesen Auftrag zur Videogenerierung. Yes
status object Der Status eines Auftrags zur Videogenerierung. Yes
width integer Die Höhe des Videos. Yes

VideoGenerationJobList

Eine Liste der Aufträge zur Videogenerierung.

Name Type Description Required Default
data array Die Liste der Aufträge zur Videogenerierung. Yes
first_id string Die ID des ersten Auftrags auf der aktuellen Seite, falls verfügbar. No
has_more boolean Ein Kennzeichen, das angibt, ob nach der Liste weitere Aufträge verfügbar sind. Yes
last_id string Die ID des letzten Auftrags auf der aktuellen Seite, falls verfügbar. No
object enum
Mögliche Werte: list
Yes

Next steps

Erfahren Sie mehr über Modelle und feinabstimmungen mit der REST-API. Erfahren Sie mehr über die modelle underlying that power Azure OpenAI.