Azure OpenAI dans Microsoft informations de référence sur la préversion de l’API REST des modèles Foundry v1

Cet article fournit des détails sur les points de terminaison de l’API REST d’inférence pour Azure OpenAI.

Inférence du plan de données

Le reste de l’article décrit notre nouvelle version préliminaire de l’API v1 du Azure spécification d’inférence du plan de données OpenAI. En savoir plus dans notre guide de cycle de vie des API.

Si vous recherchez de la documentation sur la dernière version de l’API de disponibilité générale v1, reportez-vous à la dernière API d’inférence du plan de données ga

Create speech

POST {endpoint}/openai/v1/audio/speech?api-version=preview

Génère l’audio de synthèse vocale à partir du texte d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de Microsoft’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Texte pour lequel générer l’audio. La longueur maximale est de 4 096 caractères. Yes
instructions string Contrôlez la voix de votre audio généré avec des instructions supplémentaires. Ne fonctionne pas avec tts-1 ou tts-1-hd. No
model string Modèle à utiliser pour cette demande de synthèse vocale. Yes
response_format object Formats de sortie audio pris en charge pour la synthèse vocale. No
speed number Vitesse de la parole pour l’audio généré. Les valeurs sont valides dans la plage comprise entre 0,25 et 4.0, avec 1,0 les valeurs par défaut et supérieures correspondant à la reconnaissance vocale plus rapide. No 1
stream_format enum Format dans lequel diffuser l’audio. Les formats pris en charge sont sse et audio. sse n’est pas pris en charge pour tts-1 ou tts-1-hd.
Valeurs possibles : sse, audio
No
voice object Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/octet-stream string

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Synthétise l’audio à partir du texte fourni.

POST {endpoint}/openai/v1/audio/speech?api-version=preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3",
 "model": "tts-1"
}

Réponses : Code d’état : 200

{
  "body": "101010101"
}

Create transcription

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

Transcrit l’audio dans la langue d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
chunking_strategy object No
└─ prefix_padding_ms integer Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). No 300
└─ silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. No 200
└─ threshold number Seuil de sensibilité (0,0 à 1,0) pour la détection d’activité vocale. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. No 0.5
└─ type enum Doit être défini pour activer la segmentation manuelle à server_vad l’aide du VAD côté serveur.
Valeurs possibles : server_vad
No
file string Yes
filename string Nom de fichier facultatif ou identificateur descriptif à associer aux données audio. No
include[] array Informations supplémentaires à inclure dans la réponse de transcription. logprobs retourne les probabilités de journal des jetons dans la réponse pour comprendre la confiance du modèle dans la transcription. logprobs fonctionne uniquement avec response_format défini sur json et uniquement avec les modèles gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. No
language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. No
model string Modèle à utiliser pour cette demande de transcription. No
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. No
response_format object No
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. Remarque : La diffusion en continu n’est pas prise en charge pour le whisper-1 modèle et sera ignorée. No False
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0
timestamp_granularities[] array Granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. No ['segment']

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureAudioTranscriptionResponse
text/plain string

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Réponses : Code d’état : 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Create translation

POST {endpoint}/openai/v1/audio/translations?api-version=preview

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Yes
filename string Nom de fichier facultatif ou identificateur descriptif à associer aux données audio No
model string Modèle à utiliser pour cette demande de traduction. No
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. No
response_format object No
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureAudioTranslationResponse
text/plain string

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST {endpoint}/openai/v1/audio/translations?api-version=preview

{
 "file": "<binary audio data>",
 "model": "whisper-1",
 "response_format": "text"
}

Réponses : Code d’état : 200

{
  "body": "plain text when requesting text, srt, or vtt"
}

Créer une saisie semi-automatique de conversation

POST {endpoint}/openai/v1/chat/completions?api-version=preview

Crée une saisie semi-automatique de conversation.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.
Valeurs possibles : wav, , aacmp3, flac, opuspcm16
No
└─ voice object No
data_sources array Sources de données à utiliser pour la fonctionnalité Sur vos données, exclusives à Azure OpenAI. No
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. No 0
function_call enum La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
Valeurs possibles : none, auto
No
functions array Déconseillé en faveur de tools.
Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON.
No
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. No None
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . No False
max_completion_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation.
Cette valeur peut être utilisée pour contrôler les coûts du texte généré via l’API.
Cette valeur est désormais déconseillée en faveur des modèles de max_completion_tokenssérie o1 et n’est pas compatible avec les modèles de série o1.
No
messages array Liste des messages comprenant la conversation jusqu’à présent. Selon le modèle que vous utilisez, différents types de messages (modalités) sont pris en charge, tels que le texte, les images et l’audio. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
modalities object Types de sortie que vous souhaitez générer le modèle.
La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]
No
model string Identificateur de déploiement de modèle à utiliser pour la demande d’achèvement de conversation. Yes
n integer Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. No 1
parallel_tool_calls object Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No
prediction object Représentation de base de la sortie prédite à partir d’un modèle. No
└─ type OpenAI.ChatOutputPredictionType No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. No 0
reasoning_effort object Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
response_format object No
└─ type enum
Valeurs possibles : text, , json_objectjson_schema
No
seed integer Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.
No
stop object Non pris en charge avec les derniers modèles o3 de raisonnement et o4-mini.

Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
No
store boolean Indique s’il faut stocker ou non la sortie de cette demande de saisie semi-automatique de conversation pour une utilisation dans les produits de validation ou d’évaluation de modèle. No False
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. No False
stream_options object Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. No
└─ include_usage boolean Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide.

Tous les autres blocs incluent également un usage champ, mais avec une valeur Null. NOTE: Si le flux est interrompu, vous ne recevez peut-être pas le bloc d’utilisation final qui contient l’utilisation totale du jeton pour la demande.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si les outils sont présents.
No
tools array Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No
user_security_context AzureUserSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureCreateChatCompletionResponse
text/event-stream AzureCreateChatCompletionStreamResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Crée une saisie semi-automatique pour l’invite fournie, les paramètres et le modèle choisi.

POST {endpoint}/openai/v1/chat/completions?api-version=preview

{
 "model": "gpt-4o-mini",
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Create embedding

POST {endpoint}/openai/v1/embeddings?api-version=preview

Crée un vecteur d’incorporation représentant le texte d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. No
encoding_format enum Format dans lequel retourner les incorporations. Peut être soit float ou base64.
Valeurs possibles : float, base64
No
input chaîne ou tableau Yes
model string Modèle à utiliser pour la demande d’incorporation. Yes
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.CreateEmbeddingResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Retournez les incorporations pour une invite donnée.

POST {endpoint}/openai/v1/embeddings?api-version=preview

{
 "model": "text-embedding-ada-002",
 "input": [
  "this is a test"
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196,
          -0.020365695,
          -0.009631885,
          -0.007647093,
          0.0033837722,
          -0.026764825,
          -0.010501476,
          0.020219658,
          0.024640633,
          -0.0066912062,
          -0.036456455,
          -0.0040923897,
          -0.013966565,
          0.017816665,
          0.005366905,
          0.022835068,
          0.0103488,
          -0.0010811808,
          -0.028942121,
          0.0074280356,
          -0.017033368,
          0.0074877786,
          0.021640211,
          0.002499245,
          0.013316032,
          0.0021524043,
          0.010129742,
          0.0054731146,
          0.03143805,
          0.014856071,
          0.0023366117,
          -0.0008243692,
          0.022781964,
          0.003038591,
          -0.017617522,
          0.0013309394,
          0.0022154662,
          0.00097414135,
          0.012041516,
          -0.027906578,
          -0.023817508,
          0.013302756,
          -0.003003741,
          -0.006890349,
          0.0016744611
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

List evals

GET {endpoint}/openai/v1/evals?api-version=preview

Répertorier les évaluations d’un projet.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
after query No string Identificateur de la dernière valeur d’évaluation de la demande de pagination précédente.
limit query No integer Limite du nombre d’evals à retourner dans une seule réponse de pagination.
order query No string
Valeurs possibles : asc, desc
Ordre de tri pour lesvals par horodatage. Utiliser asc pour l’ordre croissant ou desc pour l’ordre décroissant.
order_by query No string
Valeurs possibles : created_at, updated_at
Les evals peuvent être triés par heure de création ou heure de dernière mise à jour. Utiliser created_at pour l’heure de création ou updated_at pour la dernière heure mise à jour.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.EvalList

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Createeval

POST {endpoint}/openai/v1/evals?api-version=preview

Créez la structure d’une évaluation qui peut être utilisée pour tester les performances d’un modèle.

Une évaluation est un ensemble de critères de test et d’une source de données. Après avoir créé une évaluation, vous pouvez l’exécuter sur différents modèles et paramètres de modèle. Nous prenons en charge plusieurs types de nuanceurs et de sources de données.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
data_source_config object Yes
└─ type OpenAI.EvalDataSourceConfigType No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom de l’évaluation. No
statusCode enum
Valeurs possibles : 201
Yes
testing_criteria array Liste des classateurs pour toutes les exécutions d’évaluation dans ce groupe. Les nuanceurs peuvent référencer des variables dans la source de données à l’aide d’accolades doubles, comme {{item.variable_name}}. Pour référencer la sortie du modèle, utilisez l’espace sample de noms (par exemple, {{sample.output_text}}). Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.Eval

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Get eval

GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Récupérez une évaluation par son ID. Récupère une évaluation par son ID.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.Eval

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Update eval

POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Mettez à jour les propriétés mutables d’une évaluation spécifiée.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata OpenAI.MetadataPropertyForRequest Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.Eval

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Delete eval

DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview

Supprimez une évaluation spécifiée.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json object

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Obtenir des exécutions d’évaluation

GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Récupérez une liste d’exécutions pour une évaluation spécifiée.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string
after query No string
limit query No integer
order query No string
Valeurs possibles : asc, desc
status query No string
Valeurs possibles : queued, , in_progresscompleted, canceled,failed

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.EvalRunList

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Créer une exécution d’évaluation

POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview

Créez une nouvelle exécution d’évaluation, en commençant le processus de notation.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
data_source object Yes
└─ type OpenAI.EvalRunDataSourceType No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom de l’exécution. No

Responses

Code d’état : 201

Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.

Content-Type Type Description
application/json OpenAI.EvalRun

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Obtenir l’exécution d’évaluation

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Récupérez une évaluation spécifique exécutée par son ID.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string
run_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.EvalRun

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Annuler l’exécution d’évaluation

POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Annulez une évaluation spécifique exécutée par son ID.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string
run_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.EvalRun

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Deleteevalrun

DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview

Supprimez une évaluation spécifique exécutée par son ID.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string
run_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json object

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Obtenir les éléments de sortie d’exécution eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview

Obtenir la liste des éléments de sortie pour une exécution d’évaluation spécifiée.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string
run_id path Yes string
after query No string
limit query No integer
status query No string
Valeurs possibles : fail, pass
order query No string
Valeurs possibles : asc, desc

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.EvalRunOutputItemList

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Obtenir l’élément de sortie d’exécution eval

GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview

Récupérez un élément de sortie spécifique à partir d’une évaluation exécutée par son ID.

REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
aoai-evals header Yes string
Valeurs possibles : preview
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion.
Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ».
eval_id path Yes string
run_id path Yes string
output_item_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.EvalRunOutputItem

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Create file

POST {endpoint}/openai/v1/files?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
expires_after object Yes
└─ anchor AzureFileExpiryAnchor No
└─ seconds integer No
file string Yes
purpose enum Objectif prévu du fichier chargé. L’un des : : assistantsutilisé dans l’API Assistants - batch: Utilisé dans l’API Batch - fine-tune: Utilisé pour le réglage précis - evals: Utilisé pour les jeux de données eval
Valeurs possibles : assistants, , batchfine-tune,evals
Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureOpenAIFile

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

POST {endpoint}/openai/v1/files?api-version=preview

List files

GET {endpoint}/openai/v1/files?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
purpose query No string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureListFilesResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Retrieve file

GET {endpoint}/openai/v1/files/{file_id}?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
file_id path Yes string ID du fichier à utiliser pour cette requête.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureOpenAIFile

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Delete file

DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
file_id path Yes string ID du fichier à utiliser pour cette requête.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.DeleteFileResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Download file

GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
file_id path Yes string ID du fichier à utiliser pour cette requête.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/octet-stream string

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Rungrader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview

Exécutez un classateur.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
grader object Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. Yes
└─ calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. No
└─ evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Balise d’image à utiliser pour le script Python. No
└─ input array Texte d’entrée. Cela peut inclure des chaînes de modèle. No
└─ model string Modèle à utiliser pour l’évaluation. No
└─ name string Nom du classateur. No
└─ operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
No
└─ range array Plage du score. La valeur par défaut est [0, 1]. No
└─ reference string Texte en cours de classement. No
└─ sampling_params Paramètres d’échantillonnage du modèle. No
└─ source string Code source du script Python. No
└─ type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
No
item Élément de jeu de données fourni au classateur. Cela sera utilisé pour remplir l’espace item de noms. No
model_sample string Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir l’espace sample de noms.
La output_json variable est remplie si l’exemple de modèle est une chaîne JSON valide.
Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.RunGraderResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Validate grader

POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview

Validez un classateur.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
grader object Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. Yes
└─ calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. No
└─ evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Balise d’image à utiliser pour le script Python. No
└─ input array Texte d’entrée. Cela peut inclure des chaînes de modèle. No
└─ model string Modèle à utiliser pour l’évaluation. No
└─ name string Nom du classateur. No
└─ operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
No
└─ range array Plage du score. La valeur par défaut est [0, 1]. No
└─ reference string Texte en cours de classement. No
└─ sampling_params Paramètres d’échantillonnage du modèle. No
└─ source string Code source du script Python. No
└─ type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ValidateGraderResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Créer un travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Crée un travail de réglage précis qui commence le processus de création d’un modèle à partir d’un jeu de données donné.

La réponse inclut les détails de la tâche mise en file d’attente, y compris l’état du travail et le nom des modèles affinés une fois terminés.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
hyperparameters object Hyperparamètres utilisés pour le travail de réglage précis.
Cette valeur est désormais déconseillée en faveur de method, et doit être transmise sous le method paramètre.
No
└─ batch_size enum
Valeurs possibles : auto
No
└─ learning_rate_multiplier enum
Valeurs possibles : auto
No
└─ n_epochs enum
Valeurs possibles : auto
No
integrations array Liste des intégrations à activer pour votre travail de réglage précis. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
method OpenAI.FineTuneMethod Méthode utilisée pour le réglage précis. No
model chaîne (voir les modèles valides ci-dessous) Nom du modèle à ajuster. Yes
seed integer La valeur initiale contrôle la reproductibilité du travail. La transmission des mêmes paramètres de départ et de travail doit produire les mêmes résultats, mais peut différer dans de rares cas.
Si une valeur initiale n’est pas spécifiée, une valeur est générée pour vous.
No
suffix string Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné.

Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No None
training_file string ID d’un fichier chargé qui contient des données d’apprentissage. Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.

Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence.
Yes
validation_file string ID d’un fichier chargé qui contient des données de validation.

Si vous fournissez ce fichier, les données sont utilisées pour générer régulièrement des métriques de validation pendant le réglage précis. Ces métriques peuvent être consultées dans le fichier de résultats de réglage précis.
Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation.

Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune.
No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les travaux de réglage précis paginés

GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview

Répertorier les travaux d’optimisation de votre organisation

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
after query No string Identificateur du dernier travail de la demande de pagination précédente.
limit query No integer Nombre de travaux de réglage précis à récupérer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListPaginatedFineTuningJobsResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Récupérer un travail de réglage précis

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview

Obtenez des informations sur un travail de réglage précis.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
fine_tuning_job_id path Yes string ID du travail de réglage précis.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Annuler le travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview

Annulez immédiatement un travail affiné.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
fine_tuning_job_id path Yes string ID du travail de réglage précis à annuler.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les points de contrôle de travail de réglage précis

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview

Répertoriez les points de contrôle d’un travail de réglage précis.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
fine_tuning_job_id path Yes string ID du travail de réglage précis pour lequel obtenir des points de contrôle.
after query No string Identificateur du dernier ID de point de contrôle de la demande de pagination précédente.
limit query No integer Nombre de points de contrôle à récupérer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListFineTuningJobCheckpointsResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les événements de réglage précis

GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview

Obtenir les mises à jour d’état pour un travail de réglage précis.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
fine_tuning_job_id path Yes string ID du travail de réglage précis pour obtenir des événements.
after query No string Identificateur du dernier événement de la demande de pagination précédente.
limit query No integer Nombre d’événements à récupérer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListFineTuningJobEventsResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Suspendre le travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview

Suspendre un travail affiné.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
fine_tuning_job_id path Yes string ID du travail de réglage précis à suspendre.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Reprendre le travail de réglage précis

POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview

Reprendre une tâche d’optimisation affinée suspendue.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
fine_tuning_job_id path Yes string ID du travail de réglage précis à reprendre.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.FineTuningJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Créer une modification d’image

POST {endpoint}/openai/v1/images/edits?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
background enum Permet de définir la transparence pour l’arrière-plan de la ou des images générées.
Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.

Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.
Valeurs possibles : transparent, , opaqueauto
No
image chaîne ou tableau Yes
mask string No
model string Déploiement de modèle à utiliser pour l’opération de modification d’image. Yes
n integer Nombre d’images à générer. Doit être compris entre 1 et 10. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. No 100
output_format enum Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.
La valeur par défaut est png.
Valeurs possibles : png, , jpegwebp
No
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 1 000 caractères et dall-e-2de 32 000 caractères pour gpt-image-1les modèles -series. Yes
quality enum Qualité de l’image qui sera générée. high, medium et low sont uniquement pris en charge pour gpt-image-1les modèles -series. dall-e-2 prend uniquement en charge standard la qualité. La valeur par défaut est auto.
Valeurs possibles : standard, , lowmedium, high,auto
No
response_format enum Format dans lequel les images générées sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre est pris en charge uniquement pour dall-e-2les gpt-image-1modèles -series qui retournent toujours des images encodées en base64.
Valeurs possibles : url, b64_json
No
size enum Taille des images générées. Doit être l’un des 1024x1024éléments suivants : 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, et l’un des 256x256modèles , 512x512ou 1024x1024 pour dall-e-2.
Valeurs possibles : 256x256, , 512x5121024x1024, 1536x1024, 1024x1536auto
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureImagesResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Createimage

POST {endpoint}/openai/v1/images/generations?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
background enum Permet de définir la transparence pour l’arrière-plan de la ou des images générées.
Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.

Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.
Valeurs possibles : transparent, , opaqueauto
No
model string Déploiement de modèle à utiliser pour la génération d’image. Yes
moderation enum Contrôlez le niveau de modération du contenu pour les images générées par gpt-image-1les modèles de série. Doit être soit low pour un filtrage moins restrictif ou auto (valeur par défaut).
Valeurs possibles : low, auto
No
n integer Nombre d’images à générer. Doit être compris entre 1 et 10. Pour dall-e-3, uniquement n=1 est pris en charge. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. No 100
output_format enum Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.
Valeurs possibles : png, , jpegwebp
No
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour gpt-image-1les modèles -series, 1 000 caractères et dall-e-2 4 000 caractères pour dall-e-3. Yes
quality enum Qualité de l’image qui sera générée.

- auto (valeur par défaut) sélectionne automatiquement la meilleure qualité pour le modèle donné.
- high, medium et low sont pris en charge pour gpt-image-1les modèles -series.
- hd et standard sont pris en charge pour dall-e-3.
- standard est la seule option pour dall-e-2.
Valeurs possibles : standard, , hdlow, medium, highauto
No
response_format enum Format dans lequel les images générées et dall-e-2dall-e-3 sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles -series qui retournent toujours des images codées en base64.
Valeurs possibles : url, b64_json
No
size enum Taille des images générées. Doit être l’un des 1024x1024, 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, l’un des 256x256modèles , 512x512ou pour , ou 1024x1024 pour dall-e-2, et l’un des 1024x1024, 1792x1024ou 1024x1792 pour dall-e-3.
Valeurs possibles : auto, , 1024x1024, 1536x10241024x1536256x256512x512, , 1792x10241024x1792
No
style enum Style des images générées. Ce paramètre n’est pris en charge que pour dall-e-3. Doit être l’un des vivid ou natural. Le modèle se penche sur la génération d’images hyper-réelles et dramatiques. Naturel provoque la production d’images plus naturelles, moins hyper-réelles.
Valeurs possibles : vivid, natural
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureImagesResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Crée des images à l’invite.

POST {endpoint}/openai/v1/images/generations?api-version=preview

{
 "model": "dall-e-3",
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Réponses : Code d’état : 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

List models

GET {endpoint}/openai/v1/models?api-version=preview

Répertorie les modèles actuellement disponibles et fournit des informations de base sur chacun d’eux, tels que le propriétaire et la disponibilité.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListModelsResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Retrieve model

GET {endpoint}/openai/v1/models/{model}?api-version=preview

Récupère une instance de modèle, fournissant des informations de base sur le modèle, telles que le propriétaire et l’autorisation.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
model path Yes string ID du modèle à utiliser pour cette requête.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.Model

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Create response

POST {endpoint}/openai/v1/responses?api-version=preview

Crée une réponse de modèle.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
include array Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
- code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
- message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.
- reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro).
No
input chaîne ou tableau No
instructions string Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Déploiement de modèle à utiliser pour la création de cette réponse. Yes
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
prompt object Référence à un modèle d’invite et à ses variables. No
└─ id string Identificateur unique du modèle d’invite à utiliser. No
└─ variables OpenAI.ResponsePromptVariables Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers. No
└─ version string Version facultative du modèle d’invite. No
reasoning object Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ effort OpenAI.ReasoningEffort Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
└─ generate_summary enum Déconseillé : utilisez summary à la place.

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
└─ summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
store boolean Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. No True
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. No False
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
No
└─ type OpenAI.ToolChoiceObjectType Indique que le modèle doit utiliser un outil intégré pour générer une réponse. No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. You
peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle, telles que la recherche de fichiers.
- Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureResponse
text/event-stream OpenAI.ResponseStreamEvent

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Example

Créer une réponse de modèle

POST {endpoint}/openai/v1/responses?api-version=preview

Get response

GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Récupère une réponse de modèle avec l’ID donné.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
response_id path Yes string
include[] query No array

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json AzureResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Delete response

DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview

Supprime une réponse par ID.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
response_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json object

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les éléments d’entrée

GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview

Retourne une liste d’éléments d’entrée pour une réponse donnée.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
response_id path Yes string
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ResponseItemList

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les magasins de vecteurs

GET {endpoint}/openai/v1/vector_stores?api-version=preview

Retourne une liste de magasins vectoriels.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListVectorStoresResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Créer un magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores?api-version=preview

Crée un magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy object Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400. No
└─ static OpenAI.StaticChunkingStrategy No
└─ type enum Toujours static.
Valeurs possibles : static
No
expires_after OpenAI.VectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
file_ids array Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom du magasin vectoriel. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Examples

Exemple de fichier introuvable : ./examples/vector_stores.json

Obtenir le magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Récupère un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs à récupérer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Modifier le magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Modifie un magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs à modifier.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after object Stratégie d’expiration d’un magasin de vecteurs. No
└─ anchor enum Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.
Valeurs possibles : last_active_at
No
└─ days integer Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom du magasin vectoriel. No

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Supprimer le magasin de vecteurs

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview

Supprimez un magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs à supprimer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.DeleteVectorStoreResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Créer un lot de fichiers de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview

Créez un lot de fichiers de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs pour lequel créer un lot de fichiers.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_ids array Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Obtenir le lot de fichiers de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview

Récupère un lot de fichiers de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers récupéré.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Annuler le lot de fichiers de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers à annuler.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreFileBatchObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les fichiers dans le lot de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview

Retourne une liste de fichiers de magasin de vecteurs dans un lot.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers auquel appartiennent les fichiers.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
filter query No Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. .

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListVectorStoreFilesResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Répertorier les fichiers de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Retourne une liste de fichiers de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin vectoriel auquel appartiennent les fichiers.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant etdesc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste.
Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
filter query No Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. .

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.ListVectorStoreFilesResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Créer un fichier de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin de vecteurs pour lequel créer un fichier.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_id string ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Obtenir le fichier de magasin de vecteurs

GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Récupère un fichier de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier récupéré.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Mettre à jour les attributs de fichier de magasin de vecteurs

POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string
file_id path Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.VectorStoreFileObject

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Supprimer le fichier de magasin de vecteurs

DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin vectoriel, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression du fichier.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier à supprimer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json OpenAI.DeleteVectorStoreFileResponse

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureErrorResponse

Travaux de génération de vidéos - Créer

POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Crée un travail de génération de vidéos.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
height integer Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes
model string Nom du déploiement à utiliser pour cette demande. Yes
n_seconds integer Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. No 5
n_variants integer Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. No 1
prompt string Invite de ce travail de génération de vidéos. Yes
width integer Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
files array Yes
height integer Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes
inpaint_items array Éléments d’inpainting facultatifs pour ce travail de génération de vidéos. No
model string Nom du déploiement à utiliser pour cette demande. Yes
n_seconds integer Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. No 5
n_variants integer Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. No 1
prompt string Invite de ce travail de génération de vidéos. Yes
width integer Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json VideoGenerationJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Exemple de fichier introuvable : ./examples/create_video_generation_job_simple.json

Travaux de génération de vidéos - Liste

GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview

Répertorie les travaux de génération de vidéos.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
before query No string
after query No string
limit query Yes integer
statuses query No array

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json VideoGenerationJobList

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Exemple de fichier introuvable : ./examples/get_video_generation_job_list.json

Travaux de génération de vidéos - Obtenir

GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Récupère les propriétés d’un travail de génération de vidéos.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
job-id path Yes string ID du travail de génération de vidéos à utiliser pour la requête OpenAI Azure.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json VideoGenerationJob

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Exemple de fichier introuvable : ./examples/get_video_generation_job.json

Travaux de génération de vidéos - Supprimer

DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview

Supprime un travail de génération de vidéos.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
job-id path Yes string ID du travail de génération de vidéos à utiliser pour la requête OpenAI Azure.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 204

Description : il n’existe aucun contenu à envoyer pour cette demande, mais les en-têtes peuvent être utiles.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Générations de vidéos - Obtenir

GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview

Récupère une génération de vidéo par ID.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
generation-id path Yes string ID de la génération de vidéos à utiliser pour la requête OpenAI Azure.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
application/json VideoGeneration

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Examples

Exemple de fichier introuvable : ./examples/get_video_generation.json

Générations de vidéos - Récupérer une miniature

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview

Récupère une miniature du contenu vidéo généré.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
generation-id path Yes string ID de la génération de vidéos à utiliser pour la requête OpenAI Azure.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
image/jpg string

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Générations de vidéos - Récupérer du contenu vidéo

GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Récupère le contenu vidéo généré.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
generation-id path Yes string ID de la génération de vidéos à utiliser pour la requête OpenAI Azure.
quality query No

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Content-Type Type Description
video/mp4 string

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Générations de vidéos - Récupérer uniquement les en-têtes videocontent

HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview

Récupère les en-têtes pour le contenu vidéo généré.

URI Parameters

Name In Required Type Description
endpoint path Yes string
url
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com
api-version query No Version explicite de l’API Foundry Models à utiliser pour cette requête.
v1 s’il n’est pas spécifié.
generation-id path Yes string ID de la génération de vidéos à utiliser pour la requête OpenAI Azure.
quality query No

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournissez Azure clé API OpenAI ici

Responses

Code d’état : 200

Description : la demande a réussi.

Code d’état : par défaut

Description : réponse d’erreur inattendue.

Content-Type Type Description
application/json AzureOpenAIVideoGenerationErrorResponse

Components

AudioTaskLabel

Définit les descripteurs possibles pour les réponses d’opération audio disponibles.

Property Value
Description Définit les descripteurs possibles pour les réponses d’opération audio disponibles.
Type string
Values transcribe
translate

AudioTranslationSegment

Informations étendues sur un segment unique de données audio traduites. Les segments représentent généralement environ 5 à 10 secondes de parole. Les limites de segment se produisent généralement entre des mots, mais pas nécessairement des phrases.

Name Type Description Required Default
avg_logprob number Probabilité moyenne du journal associée à ce segment audio. Yes
compression_ratio number Taux de compression de ce segment audio. Yes
end number Heure à laquelle ce segment s’est terminé par rapport au début de l’audio traduit. Yes
id integer Index de base 0 de ce segment dans une traduction. Yes
no_speech_prob number Probabilité d’absence de détection vocale dans ce segment audio. Yes
seek integer Position de recherche associée au traitement de ce segment audio.
Les positions de recherche sont exprimées sous forme de centièmes de secondes.
Le modèle peut traiter plusieurs segments à partir d’une position de recherche unique. Par conséquent, alors que la position de recherche ne représentera jamais plus tard que le début du segment, le début du segment peut représenter une heure beaucoup plus tard que la position de recherche associée au segment.
Yes
start number Heure à laquelle ce segment a commencé par rapport au début de l’audio traduit. Yes
temperature number Score de température associé à ce segment audio. Yes
text string Texte traduit qui faisait partie de ce segment audio. Yes
tokens array ID de jeton correspondant au texte traduit dans ce segment audio. Yes

AzureAIFoundryModelsApiVersion

Property Value
Type string
Values v1
preview

AzureAudioTranscriptionResponse

Informations de résultat pour une opération qui a transcrit l’audio parlé en texte écrit.

Name Type Description Required Default
duration number Durée totale de l’audio traité pour produire des informations de transcription associées. No
language string Langue parlée détectée dans les données audio transcrites.
Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ».
No
segments array Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. No
task object Définit les descripteurs possibles pour les réponses d’opération audio disponibles. No
text string Texte transcrit pour les données audio fournies. Yes
words array Collection d’informations sur le minutage de chaque mot traité. No

AzureAudioTranslationResponse

Informations de résultat pour une opération qui a traduit l’audio parlé en texte écrit.

Name Type Description Required Default
duration number Durée totale de l’audio traité pour produire des informations de traduction associées. No
language string Langue parlée détectée dans les données audio traduites.
Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ».
No
segments array Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. No
task object Définit les descripteurs possibles pour les réponses d’opération audio disponibles. No
text string Texte traduit pour les données audio fournies. Yes

AzureChatCompletionResponseMessage

Composant de modèle de réponse étendu pour les messages de réponse de saisie semi-automatique de conversation sur le service OpenAI Azure. Ce modèle ajoute la prise en charge du contexte de message de conversation, utilisée par la fonctionnalité Sur vos données pour l’intention, les citations et d’autres informations relatives à la génération augmentée de récupération effectuée.

Name Type Description Required Default
annotations array Annotations pour le message, le cas échéant, comme lors de l’utilisation de l’outil de recherche web. No
audio object Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. No
└─ data string Octets audio encodés en base64 générés par le modèle, au format spécifié dans la requête. No
└─ expires_at integer Horodatage Unix (en secondes) pour lequel cette réponse audio ne sera plus accessible sur le serveur pour une utilisation dans les conversations à plusieurs tours. No
└─ id string Identificateur unique pour cette réponse audio. No
└─ transcript string Transcription de l’audio généré par le modèle. No
content string Contenu du message. Yes
context object Une propriété supplémentaire, ajoutée aux messages de réponse de saisie semi-automatique de conversation, produite par le service OpenAI Azure lors de l’utilisation du comportement d’extension. Cela inclut les informations d’intention et de citation de la fonctionnalité Sur vos données. No
└─ all_retrieved_documents object Informations récapitulatives sur les documents récupérés par l’opération de récupération de données. No
└─ chunk_id string ID de bloc de la citation. No
└─ content string Contenu de la citation. No
└─ data_source_index integer Index de la source de données utilisée pour la récupération. No
└─ filepath string Chemin d’accès du fichier pour la citation. No
└─ filter_reason enum Le cas échéant, indication de la raison pour laquelle le document a été filtré.
Valeurs possibles : score, rerank
No
└─ original_search_score number Score de recherche d’origine pour la récupération. No
└─ rerank_score number Score de reclassement pour la récupération. No
└─ search_queries array Requêtes de recherche exécutées pour récupérer des documents. No
└─ title string Titre de la citation. No
└─ url string URL de la citation. No
└─ citations array Citations produites par la récupération des données. No
└─ intent string Intention détectée à partir de l’historique des conversations, utilisée pour transporter le contexte de conversation entre les interactions No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
└─ arguments string No
└─ name string No
reasoning_content string Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. No
refusal string Message de refus généré par le modèle. Yes
role enum Rôle de l’auteur de ce message.
Valeurs possibles : assistant
Yes
tool_calls ChatCompletionMessageToolCallsItem Les appels d’outil générés par le modèle, tels que les appels de fonction. No

AzureChatCompletionStreamResponseDelta

Modèle de réponse étendu pour un message de réponse de conversation en streaming sur le service OpenAI Azure. Ce modèle ajoute la prise en charge du contexte de message de conversation, utilisée par la fonctionnalité Sur vos données pour l’intention, les citations et d’autres informations relatives à la génération augmentée de récupération effectuée.

Name Type Description Required Default
audio object No
└─ data string No
└─ expires_at integer No
└─ id string No
└─ transcript string No
content string Contenu du message de bloc. No
context object Une propriété supplémentaire, ajoutée aux messages de réponse de saisie semi-automatique de conversation, produite par le service OpenAI Azure lors de l’utilisation du comportement d’extension. Cela inclut les informations d’intention et de citation de la fonctionnalité Sur vos données. No
└─ all_retrieved_documents object Informations récapitulatives sur les documents récupérés par l’opération de récupération de données. No
└─ chunk_id string ID de bloc de la citation. No
└─ content string Contenu de la citation. No
└─ data_source_index integer Index de la source de données utilisée pour la récupération. No
└─ filepath string Chemin d’accès du fichier pour la citation. No
└─ filter_reason enum Le cas échéant, indication de la raison pour laquelle le document a été filtré.
Valeurs possibles : score, rerank
No
└─ original_search_score number Score de recherche d’origine pour la récupération. No
└─ rerank_score number Score de reclassement pour la récupération. No
└─ search_queries array Requêtes de recherche exécutées pour récupérer des documents. No
└─ title string Titre de la citation. No
└─ url string URL de la citation. No
└─ citations array Citations produites par la récupération des données. No
└─ intent string Intention détectée à partir de l’historique des conversations, utilisée pour transporter le contexte de conversation entre les interactions No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
└─ arguments string No
└─ name string No
reasoning_content string Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. No
refusal string Message de refus généré par le modèle. No
role object Rôle de l’auteur d’un message No
tool_calls array No

AzureChatDataSource

Représentation des données de configuration pour une seule source de données de conversation OpenAI Azure. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser Azure extensions de conversation OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Discriminateur pour AzureChatDataSource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
azure_search AzureSearchChatDataSource
azure_cosmos_db AzureCosmosDBChatDataSource
elasticsearch ElasticsearchChatDataSource
pinecone PineconeChatDataSource
mongo_db MongoDBChatDataSource
Name Type Description Required Default
type object Yes

AzureChatDataSourceAccessTokenAuthenticationOptions

Name Type Description Required Default
access_token string Yes
type enum
Valeurs possibles : access_token
Yes

AzureChatDataSourceApiKeyAuthenticationOptions

Name Type Description Required Default
key string Yes
type enum
Valeurs possibles : api_key
Yes

AzureChatDataSourceAuthenticationOptions

Discriminateur pour AzureChatDataSourceAuthenticationOptions

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
system_assigned_managed_identity AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
access_token AzureChatDataSourceAccessTokenAuthenticationOptions
connection_string AzureChatDataSourceConnectionStringAuthenticationOptions
key_and_key_id AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
encoded_api_key AzureChatDataSourceEncodedApiKeyAuthenticationOptions
username_and_password AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type AzureChatDataSourceAuthenticationOptionsType Yes

AzureChatDataSourceAuthenticationOptionsType

Property Value
Type string
Values api_key
username_and_password
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity

AzureChatDataSourceConnectionStringAuthenticationOptions

Name Type Description Required Default
connection_string string Yes
type enum
Valeurs possibles : connection_string
Yes

AzureChatDataSourceDeploymentNameVectorizationSource

Représente une source de vectorisation qui effectue des appels de service interne sur un déploiement de modèle incorporé OpenAI Azure. Contrairement à la source de vectorisation basée sur le point de terminaison, une source de vectorisation basée sur le nom de déploiement doit faire partie du même Azure ressource OpenAI, mais peut être utilisée même dans des réseaux privés.

Name Type Description Required Default
deployment_name string Déploiement du modèle d’incorporation à utiliser pour la vectorisation. Ce déploiement doit exister dans le même Azure ressource OpenAI que le déploiement de modèle utilisé pour les achèvements de conversation. Yes
dimensions integer Nombre de dimensions à demander sur les incorporations.
Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures.
No
type enum Identificateur de type, toujours « deployment_name » pour ce type de source de vectorisation.
Valeurs possibles : deployment_name
Yes

AzureChatDataSourceEncodedApiKeyAuthenticationOptions

Name Type Description Required Default
encoded_api_key string Yes
type enum
Valeurs possibles : encoded_api_key
Yes

AzureChatDataSourceEndpointVectorizationSource

Représente une source de vectorisation qui effectue des appels de service public sur un déploiement de modèle incorporé OpenAI Azure.

Name Type Description Required Default
authentication object Yes
└─ access_token string No
└─ key string No
└─ type enum
Valeurs possibles : access_token
No
dimensions integer Nombre de dimensions à demander sur les incorporations.
Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures.
No
endpoint string Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées.
Il doit être au format suivant :
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Le paramètre de requête api-version n’est pas autorisé.
Yes
type enum Identificateur de type, toujours « point de terminaison » pour ce type de source de vectorisation.
Valeurs possibles : endpoint
Yes

AzureChatDataSourceIntegratedVectorizationSource

Représente une source de vectorisation intégrée telle que définie dans la ressource de recherche prise en charge.

Name Type Description Required Default
type enum Identificateur de type, toujours « intégré » pour ce type de source de vectorisation.
Valeurs possibles : integrated
Yes

AzureChatDataSourceKeyAndKeyIdAuthenticationOptions

Name Type Description Required Default
key string Yes
key_id string Yes
type enum
Valeurs possibles : key_and_key_id
Yes

AzureChatDataSourceModelIdVectorizationSource

Représente une source de vectorisation qui effectue des appels de service en fonction d’un ID de modèle de service de recherche. Ce type de source n’est actuellement pris en charge que par Elasticsearch.

Name Type Description Required Default
model_id string ID de build du modèle incorporé à utiliser pour la vectorisation. Yes
type enum Identificateur de type, toujours « model_id » pour ce type de source de vectorisation.
Valeurs possibles : model_id
Yes

AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions

Name Type Description Required Default
type enum
Valeurs possibles : system_assigned_managed_identity
Yes

AzureChatDataSourceType

Property Value
Type string
Values azure_search
azure_cosmos_db
elasticsearch
pinecone
mongo_db

AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions

Name Type Description Required Default
managed_identity_resource_id string Yes
type enum
Valeurs possibles : user_assigned_managed_identity
Yes

AzureChatDataSourceUsernameAndPasswordAuthenticationOptions

Name Type Description Required Default
password string Yes
type enum
Valeurs possibles : username_and_password
Yes
username string Yes

AzureChatDataSourceVectorizationSource

Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données.

Discriminateur pour AzureChatDataSourceVectorizationSource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
deployment_name AzureChatDataSourceDeploymentNameVectorizationSource
integrated AzureChatDataSourceIntegratedVectorizationSource
model_id AzureChatDataSourceModelIdVectorizationSource
Name Type Description Required Default
type object Yes

AzureChatDataSourceVectorizationSourceType

Property Value
Type string
Values endpoint
deployment_name
model_id
integrated

AzureChatMessageContext

Une propriété supplémentaire, ajoutée aux messages de réponse de saisie semi-automatique de conversation, produite par le service OpenAI Azure lors de l’utilisation du comportement d’extension. Cela inclut les informations d’intention et de citation de la fonctionnalité Sur vos données.

Name Type Description Required Default
all_retrieved_documents object Informations récapitulatives sur les documents récupérés par l’opération de récupération de données. No
└─ chunk_id string ID de bloc de la citation. No
└─ content string Contenu de la citation. No
└─ data_source_index integer Index de la source de données utilisée pour la récupération. No
└─ filepath string Chemin d’accès du fichier pour la citation. No
└─ filter_reason enum Le cas échéant, indication de la raison pour laquelle le document a été filtré.
Valeurs possibles : score, rerank
No
└─ original_search_score number Score de recherche d’origine pour la récupération. No
└─ rerank_score number Score de reclassement pour la récupération. No
└─ search_queries array Requêtes de recherche exécutées pour récupérer des documents. No
└─ title string Titre de la citation. No
└─ url string URL de la citation. No
citations array Citations produites par la récupération des données. No
intent string Intention détectée à partir de l’historique des conversations, utilisée pour transporter le contexte de conversation entre les interactions No

AzureContentFilterBlocklistResult

Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées.

Name Type Description Required Default
details array Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. No
filtered boolean Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. Yes

AzureContentFilterCompletionTextSpan

Représentation d’une étendue de texte d’achèvement telle qu’utilisée par Azure résultats du filtre de contenu OpenAI.

Name Type Description Required Default
completion_end_offset integer Décalage du premier point de code UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. Yes
completion_start_offset integer Décalage du point de code UTF32 qui commence l’étendue. Yes

AzureContentFilterCompletionTextSpanDetectionResult

Name Type Description Required Default
details array Informations détaillées sur les étendues de texte d’achèvement détectées. Yes
detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Yes
filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. Yes

AzureContentFilterCustomTopicResult

Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées.

Name Type Description Required Default
details array Paires d’ID de rubriques individuelles et détections. No
filtered boolean Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. Yes

AzureContentFilterDetectionResult

Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré.

Name Type Description Required Default
detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. Yes
filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. Yes

AzureContentFilterImagePromptResults

Résultat d’un filtre de contenu pour le contenu de la demande d’entrée d’une opération de génération d’image.

Name Type Description Required Default
custom_blocklists object Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. No
└─ details array Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. No
└─ filtered boolean Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. No
custom_topics object Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. No
└─ details array Paires d’ID de rubriques individuelles et détections. No
└─ filtered boolean Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. No
jailbreak object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. Yes
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
profanity object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No

AzureContentFilterImageResponseResults

Résultat d’un filtre de contenu pour le contenu de réponse de sortie d’une opération de génération d’image.

Name Type Description Required Default
hate object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
self_harm object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
sexual object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
violence object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No

AzureContentFilterResultForChoice

Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative.

Name Type Description Required Default
custom_blocklists object Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. No
└─ details array Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. No
└─ filtered boolean Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. No
custom_topics object Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. No
└─ details array Paires d’ID de rubriques individuelles et détections. No
└─ filtered boolean Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. No
error object S’il est présent, des détails sur une erreur empêchant le filtrage du contenu de terminer son évaluation. No
└─ code integer Code distinct lisible par l’ordinateur associé à l’erreur. No
└─ message string Message lisible par l’homme associé à l’erreur. No
hate object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
profanity object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
protected_material_code object Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. No
└─ citation object Si disponible, les détails de la citation décrivent la licence associée et son emplacement. No
└─ URL string URL associée à la licence. No
└─ license string Nom ou identificateur de la licence associée à la détection. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
protected_material_text object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
self_harm object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
sexual object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
ungrounded_material AzureContentFilterCompletionTextSpanDetectionResult No
violence object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No

AzureContentFilterResultForPrompt

Résultat d’un filtre de contenu associé à un seul élément d’invite d’entrée dans un système d’INTELLIGENCE artificielle générative.

Name Type Description Required Default
content_filter_results object Détails de la catégorie de filtre de contenu pour le résultat. No
└─ custom_blocklists object Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. No
└─ details array Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. No
└─ filtered boolean Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. No
└─ custom_topics object Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. No
└─ details array Paires d’ID de rubriques individuelles et détections. No
└─ filtered boolean Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. No
└─ error object S’il est présent, des détails sur une erreur empêchant le filtrage du contenu de terminer son évaluation. No
└─ code integer Code distinct lisible par l’ordinateur associé à l’erreur. No
└─ message string Message lisible par l’homme associé à l’erreur. No
└─ hate object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
└─ indirect_attack object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
└─ jailbreak object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
└─ profanity object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. No
└─ detected boolean Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. No
└─ filtered boolean Indique si la détection de contenu a entraîné une action de filtrage de contenu. No
└─ self_harm object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
└─ sexual object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
└─ violence object Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. No
└─ filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. No
└─ severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
No
prompt_index integer Index de l’invite d’entrée associée aux catégories de résultats du filtre de contenu associées. No

AzureContentFilterSeverityResult

Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie.

Name Type Description Required Default
filtered boolean Indique si la gravité du contenu a entraîné une action de filtrage de contenu. Yes
severity enum Gravité étiquetée du contenu.
Valeurs possibles : safe, , lowmedium,high
Yes

AzureCosmosDBChatDataSource

Représente une configuration de source de données qui utilisera une ressource Azure CosmosDB.

Name Type Description Required Default
parameters object Informations de paramètre pour contrôler l’utilisation de la source de données cosmosDB Azure. Yes
└─ allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
└─ authentication AzureChatDataSourceConnectionStringAuthenticationOptions No
└─ container_name string No
└─ database_name string No
└─ embedding_dependency AzureChatDataSourceVectorizationSource Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données. No
└─ fields_mapping object No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ vector_fields array No
└─ in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation des données indexées. No
└─ include_contexts array Propriétés du contexte de sortie à inclure dans la réponse.
Par défaut, les citations et l’intention sont demandées.
No ['citations', 'intent']
└─ index_name string No
└─ max_search_queries integer Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur.
Par défaut, le système effectue une détermination automatique.
No
└─ strictness integer La rigueur configurée du filtrage de pertinence de la recherche.
Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible.
No
└─ top_n_documents integer Nombre configuré de documents à présenter dans la requête. No
type enum Identificateur de type discriminé, qui est toujours « azure_cosmos_db ».
Valeurs possibles : azure_cosmos_db
Yes

AzureCreateChatCompletionRequest

Modèle de requête étendu pour les achèvements de conversation par rapport au service OpenAI Azure. Cela ajoute la possibilité de fournir des sources de données pour la fonctionnalité Sur vos données.

Name Type Description Required Default
audio object Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.
Valeurs possibles : wav, , aacmp3, flac, opuspcm16
No
└─ voice object No
data_sources array Sources de données à utiliser pour la fonctionnalité Sur vos données, exclusives à Azure OpenAI. No
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. No 0
function_call enum La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
Valeurs possibles : none, auto
No
functions array Déconseillé en faveur de tools.

Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON.
No
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage.
L’effet exact varie selon le modèle, mais les valeurs entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
No None
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . No False
max_completion_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation.
Cette valeur peut être utilisée pour contrôler les coûts du texte généré via l’API.

Cette valeur est désormais déconseillée en faveur des modèles de max_completion_tokenssérie o1 et n’est pas compatible avec les modèles de série o1.
No
messages array Liste des messages comprenant la conversation jusqu’à présent. Selon le modèle que vous utilisez, différents types de messages (modalités) sont pris en charge, tels que le texte, les images et l’audio. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
modalities object Types de sortie que vous souhaitez générer le modèle.
La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]
No
model string Identificateur de déploiement de modèle à utiliser pour la demande d’achèvement de conversation. Yes
n integer Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. No 1
parallel_tool_calls object Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No
prediction object Représentation de base de la sortie prédite à partir d’un modèle. No
└─ type OpenAI.ChatOutputPredictionType No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. No 0
reasoning_effort object Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
response_format object No
└─ type enum
Valeurs possibles : text, , json_objectjson_schema
No
seed integer Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.
No
stop object Non pris en charge avec les derniers modèles o3 de raisonnement et o4-mini.

Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
No
store boolean Indique s’il faut stocker ou non la sortie de cette demande de saisie semi-automatique de conversation pour une utilisation dans les produits de distillation de modèle ou d’évaluation. No False
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. No False
stream_options object Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. No
└─ include_usage boolean Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide.

Tous les autres blocs incluent également un usage champ, mais avec une valeur Null. NOTE: Si le flux est interrompu, vous ne recevez peut-être pas le bloc d’utilisation final qui contient l’utilisation totale du jeton pour la demande.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
tool_choice OpenAI.ChatCompletionToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si les outils sont présents.
No
tools array Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No
user_security_context AzureUserSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. No

AzureCreateChatCompletionResponse

Modèle de réponse d’achèvement de conversation de niveau supérieur étendu pour le service OpenAI Azure. Ce modèle ajoute des annotations de filtre de contenu d’IA responsable pour l’entrée d’invite.

Name Type Description Required Default
choices array Yes
created integer Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. Yes
id string Identificateur unique de la saisie semi-automatique de conversation. Yes
model string Modèle utilisé pour la saisie semi-automatique de conversation. Yes
object enum Type d’objet, qui est toujours chat.completion.
Valeurs possibles : chat.completion
Yes
prompt_filter_results array Les annotations de filtre de contenu d’IA responsable associées aux entrées d’invite dans les saisies semi-automatiques de conversation. No
system_fingerprint string Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute.

Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme.
No
usage OpenAI.CompletionUsage Statistiques d’utilisation pour la demande d’achèvement. No

AzureCreateChatCompletionStreamResponse

Name Type Description Required Default
choices array Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments s’il n est supérieur à 1. Peut également être vide pour le dernier bloc si vous définissez stream_options: {"include_usage": true}. Yes
content_filter_results AzureContentFilterResultForChoice Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative. No
created integer Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. Chaque bloc a le même horodatage. Yes
delta AzureChatCompletionStreamResponseDelta Modèle de réponse étendu pour un message de réponse de conversation en streaming sur le service OpenAI Azure.
Ce modèle ajoute la prise en charge du contexte de message de conversation, utilisée par la fonctionnalité Sur vos données pour l’intention, les citations et d’autres informations relatives à la génération augmentée de récupération effectuée.
No
id string Identificateur unique de la saisie semi-automatique de conversation. Chaque bloc a le même ID. Yes
model string Modèle à générer l’achèvement. Yes
object enum Type d’objet, qui est toujours chat.completion.chunk.
Valeurs possibles : chat.completion.chunk
Yes
system_fingerprint string Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute.
Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme.
No
usage object Statistiques d’utilisation pour la demande d’achèvement. No
└─ completion_tokens integer Nombre de jetons dans la saisie semi-automatique générée. No 0
└─ completion_tokens_details object Répartition des jetons utilisés dans une saisie semi-automatique. No
└─ accepted_prediction_tokens integer Lors de l’utilisation des sorties prédites, nombre de jetons dans la prédiction qui apparaissent dans la saisie semi-automatique. No 0
└─ audio_tokens integer Jetons d’entrée audio générés par le modèle. No 0
└─ reasoning_tokens integer Jetons générés par le modèle pour le raisonnement. No 0
└─ rejected_prediction_tokens integer Lorsque vous utilisez des sorties prédites, nombre de jetons dans la prédiction qui n’apparaissent pas dans la saisie semi-automatique. Toutefois, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. No 0
└─ prompt_tokens integer Nombre de jetons dans l’invite. No 0
└─ prompt_tokens_details object Répartition des jetons utilisés dans l’invite. No
└─ audio_tokens integer Jetons d’entrée audio présents dans l’invite. No 0
└─ cached_tokens integer Jetons mis en cache présents dans l’invite. No 0
└─ total_tokens integer Nombre total de jetons utilisés dans la requête (invite + achèvement). No 0

AzureCreateEmbeddingRequest

Name Type Description Required Default
dimensions integer Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. No
encoding_format enum Format dans lequel retourner les incorporations. Peut être soit float ou base64.
Valeurs possibles : float, base64
No
input chaîne ou tableau Yes
model string Modèle à utiliser pour la demande d’incorporation. Yes
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

AzureCreateFileRequestMultiPart

Name Type Description Required Default
expires_after object Yes
└─ anchor AzureFileExpiryAnchor No
└─ seconds integer No
file string Yes
purpose enum Objectif prévu du fichier chargé. L’un des : : assistantsutilisé dans l’API Assistants - batch: utilisé dans l’API Batch - fine-tune: Utilisé pour le réglage précis - evals: utilisé pour les jeux de données eval.
Valeurs possibles : assistants, , batchfine-tune,evals
Yes

AzureCreateImageEditRequestMultiPart

Name Type Description Required Default
background enum Permet de définir la transparence pour l’arrière-plan de la ou des images générées.
Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.

Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.
Valeurs possibles : transparent, , opaqueauto
No
image chaîne ou tableau Yes
mask string No
model string Déploiement de modèle à utiliser pour l’opération de modification d’image. Yes
n integer Nombre d’images à générer. Doit être compris entre 1 et 10. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. No 100
output_format enum Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.
La valeur par défaut est png.
Valeurs possibles : png, , jpegwebp
No
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 1 000 caractères et dall-e-2de 32 000 caractères pour gpt-image-1les modèles -series. Yes
quality enum Qualité de l’image qui sera générée. high, medium et low sont uniquement pris en charge pour gpt-image-1les modèles -series. dall-e-2 prend uniquement en charge standard la qualité. La valeur par défaut est auto.
Valeurs possibles : standard, , lowmedium, high,auto
No
response_format enum Format dans lequel les images générées sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre est pris en charge uniquement pour dall-e-2les gpt-image-1modèles -series qui retournent toujours des images encodées en base64.
Valeurs possibles : url, b64_json
No
size enum Taille des images générées. Doit être l’un des 1024x1024éléments suivants : 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, et l’un des 256x256modèles , 512x512ou 1024x1024 pour dall-e-2.
Valeurs possibles : 256x256, , 512x5121024x1024, 1536x1024, 1024x1536auto
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

AzureCreateImageRequest

Name Type Description Required Default
background enum Permet de définir la transparence pour l’arrière-plan de la ou des images générées.
Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.

Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.
Valeurs possibles : transparent, , opaqueauto
No
model string Déploiement de modèle à utiliser pour la génération d’image. Yes
moderation enum Contrôlez le niveau de modération du contenu pour les images générées par gpt-image-1les modèles de série. Doit être soit low pour un filtrage moins restrictif ou auto (valeur par défaut).
Valeurs possibles : low, auto
No
n integer Nombre d’images à générer. Doit être compris entre 1 et 10. Pour dall-e-3, uniquement n=1 est pris en charge. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. No 100
output_format enum Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.
Valeurs possibles : png, , jpegwebp
No
prompt string Description textuelle de la ou des images souhaitées. Yes
quality enum Qualité de l’image qui sera générée.

- auto (valeur par défaut) sélectionne automatiquement la meilleure qualité pour le modèle donné.
- high, medium et low sont pris en charge pour gpt-image-1les modèles -series.
- hd et standard sont pris en charge pour dall-e-3.
- standard est la seule option pour dall-e-2.
Valeurs possibles : standard, , hdlow, medium, highauto
No
response_format enum Format dans lequel les images générées et dall-e-2dall-e-3 sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles -series qui retournent toujours des images codées en base64.
Valeurs possibles : url, b64_json
No
size enum Taille des images générées. Doit être l’un des 1024x1024, 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, l’un des 256x256modèles , 512x512ou pour , ou 1024x1024 pour dall-e-2, et l’un des 1024x1024, 1792x1024ou 1024x1792 pour dall-e-3.
Valeurs possibles : auto, , 1024x1024, 1536x10241024x1536256x256512x512, , 1792x10241024x1792
No
style enum Style des images générées. Ce paramètre n’est pris en charge que pour dall-e-3. Doit être l’un des vivid ou natural. Le modèle se penche sur la génération d’images hyper-réelles et dramatiques. Naturel provoque la production d’images plus naturelles, moins hyper-réelles.
Valeurs possibles : vivid, natural
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

AzureCreateResponse

Name Type Description Required Default
background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
include array Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
- code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
- message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.
- reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro).
No
input chaîne ou tableau No
instructions string Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Déploiement de modèle à utiliser pour la création de cette réponse. Yes
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
prompt object Référence à un modèle d’invite et à ses variables. No
└─ id string Identificateur unique du modèle d’invite à utiliser. No
└─ variables OpenAI.ResponsePromptVariables Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. No
└─ version string Version facultative du modèle d’invite. No
reasoning object Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ effort OpenAI.ReasoningEffort Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
└─ generate_summary enum Déconseillé : utilisez summary à la place.

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
└─ summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
store boolean Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. No True
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. No False
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
No
└─ type OpenAI.ToolChoiceObjectType Indique que le modèle doit utiliser un outil intégré pour générer une réponse. No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle, telles que la recherche de fichiers.
- Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No

AzureCreateSpeechRequestMultiPart

Représentation des options de requête qui contrôlent le comportement d’une opération de synthèse vocale.

Name Type Description Required Default
input string Texte pour lequel générer l’audio. La longueur maximale est de 4 096 caractères. Yes
instructions string Contrôlez la voix de votre audio généré avec des instructions supplémentaires. Ne fonctionne pas avec tts-1 ou tts-1-hd. No
model string Modèle à utiliser pour cette demande de synthèse vocale. Yes
response_format object Formats de sortie audio pris en charge pour la synthèse vocale. No
speed number Vitesse de la parole pour l’audio généré. Les valeurs sont valides dans la plage comprise entre 0,25 et 4.0, avec 1,0 les valeurs par défaut et supérieures correspondant à la reconnaissance vocale plus rapide. No 1
stream_format enum Format dans lequel diffuser l’audio. Les formats pris en charge sont sse et audio. sse n’est pas pris en charge pour tts-1 ou tts-1-hd.
Valeurs possibles : sse, audio
No
voice object Yes

AzureCreateTranscriptionRequestMultiPart

Informations de configuration pour une demande de transcription audio.

Name Type Description Required Default
chunking_strategy object No
└─ prefix_padding_ms integer Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). No 300
└─ silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes).
Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No 200
└─ threshold number Seuil de sensibilité (0,0 à 1,0) pour la détection d’activité vocale. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. No 0.5
└─ type enum Doit être défini pour activer la segmentation manuelle à server_vad l’aide du VAD côté serveur.
Valeurs possibles : server_vad
No
file string Yes
filename string Nom de fichier facultatif ou identificateur descriptif à associer aux données audio. No
include[] array Informations supplémentaires à inclure dans la réponse de transcription.
logprobs retourne les probabilités de journal des jetons dans la réponse pour comprendre la confiance du modèle dans la transcription.
logprobs fonctionne uniquement avec response_format défini sur json et uniquement avec les modèles gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15.
No
language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. No
model string Modèle à utiliser pour cette demande de transcription. No
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. No
response_format object No
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. Remarque : La diffusion en continu n’est pas prise en charge pour le whisper-1 modèle et sera ignorée. No False
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0
timestamp_granularities[] array Granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. No ['segment']

AzureCreateTranslationRequestMultiPart

Informations de configuration pour une demande de transcription audio.

Name Type Description Required Default
file string Yes
filename string Nom de fichier facultatif ou identificateur descriptif à associer aux données audio No
model string Modèle à utiliser pour cette demande de traduction. No
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. No
response_format object No
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0

AzureErrorResponse

Name Type Description Required Default
error object Détails de l’erreur. No
└─ code string Identificateur distinct généré par l’ordinateur pour l’erreur. No
└─ inner_error No
└─ message string Message lisible par l’homme associé à l’erreur. No
└─ param string Le cas échéant, le paramètre d’entrée de requête associé à l’erreur No
└─ type enum Type d’objet, toujours « error ».
Valeurs possibles : error
No

AzureEvalAPICompletionsSamplingParams

Name Type Description Required Default
parallel_tool_calls boolean No
response_format OpenAI.ResponseTextFormatConfiguration No
tools array No

AzureEvalAPIModelSamplingParams

Name Type Description Required Default
max_tokens integer Nombre maximal de jetons dans la sortie générée. No
reasoning_effort enum Contrôle le niveau d’effort de raisonnement appliqué pendant la génération.
Valeurs possibles : low, , mediumhigh
No
seed integer Valeur de départ pour initialiser la randomité pendant l’échantillonnage. No
temperature number Une température plus élevée augmente l’aléatoire dans les sorties. No
top_p number Alternative à la température pour l’échantillonnage du noyau ; 1.0 inclut tous les jetons. No

AzureEvalAPIResponseSamplingParams

Name Type Description Required Default
parallel_tool_calls boolean No
response_format OpenAI.ResponseTextFormatConfiguration No
tools array No

AzureFileExpiryAnchor

Property Value
Type string
Values created_at

AzureFineTuneReinforcementMethod

Name Type Description Required Default
grader object Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. Yes
└─ calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. No
└─ evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
No
└─ graders object No
└─ input array Texte d’entrée. Cela peut inclure des chaînes de modèle. No
└─ model string Modèle à utiliser pour l’évaluation. No
└─ name string Nom du classateur. No
└─ operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
No
└─ range array Plage du score. La valeur par défaut est [0, 1]. No
└─ reference string Texte en cours de classement. No
└─ sampling_params Paramètres d’échantillonnage du modèle. No
└─ type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
No
hyperparameters OpenAI.FineTuneReinforcementHyperparameters Les hyperparamètres utilisés pour le travail de réglage précis du renforcement. No
response_format object No
└─ json_schema object Schéma JSON pour le format de réponse No
└─ type enum Type de format de réponse.
Valeurs possibles : json_schema
No

AzureImage

Name Type Description Required Default
b64_json string JSON encodé en base64 de l’image générée. Valeur par défaut pour gpt-image-1les modèles -series, et présente uniquement si response_format elle est définie b64_json pour dall-e-2 et dall-e-3. No
content_filter_results AzureContentFilterImageResponseResults Résultat d’un filtre de contenu pour le contenu de réponse de sortie d’une opération de génération d’image. Yes
prompt_filter_results AzureContentFilterImagePromptResults Résultat d’un filtre de contenu pour le contenu de la demande d’entrée d’une opération de génération d’image. Yes
revised_prompt string Pour dall-e-3 uniquement, l’invite révisée utilisée pour générer l’image. No
url string Lorsque vous utilisez dall-e-2 ou dall-e-3, l’URL de l’image générée est response_format définie url sur (valeur par défaut). Non pris en charge pour gpt-image-1les modèles -series. No

AzureImagesResponse

Name Type Description Required Default
background enum GPT-image-1 uniquement : paramètre d’arrière-plan utilisé pour la génération d’image. transparentOu opaque .
Valeurs possibles : transparent, opaque
No
created integer Horodatage Unix (en secondes) de la création de l’image. Yes
data array No
output_format enum Format de sortie de la génération d’image. Soit png, webpou jpeg.
Valeurs possibles : png, , webpjpeg
No
quality enum Qualité de l’image générée. Soit low, mediumou high.
Valeurs possibles : low, , mediumhigh
No
size enum Taille de l’image générée. Soit 1024x1024, 1024x1536ou 1536x1024.
Valeurs possibles : 1024x1024, , 1024x15361536x1024
No
usage object Pour gpt-image-1les modèles de série uniquement, les informations d’utilisation des jetons pour la génération d’image. No
└─ input_tokens integer Nombre de jetons (images et texte) dans l’invite d’entrée. No
└─ input_tokens_details object Les jetons d’entrée indiquent des informations détaillées pour la génération d’images. No
└─ image_tokens integer Nombre de jetons d’image dans l’invite d’entrée. No
└─ text_tokens integer Nombre de jetons de texte dans l’invite d’entrée. No
└─ output_tokens integer Nombre de jetons d’image dans l’image de sortie. No
└─ total_tokens integer Nombre total de jetons (images et texte) utilisés pour la génération d’images. No

AzureListFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object enum
Valeurs possibles : list
Yes

AzureOpenAIFile

Name Type Description Required Default
bytes integer Taille du fichier, en octets. Yes
created_at integer Horodatage Unix (en secondes) pour lequel le fichier a été créé. Yes
expires_at integer Horodatage Unix (en secondes) pour l’expiration du fichier. No
filename string Nom du fichier. Yes
id string Identificateur de fichier, qui peut être référencé dans les points de terminaison d’API. Yes
object enum Type d’objet, qui est toujours file.
Valeurs possibles : file
Yes
purpose enum Objectif prévu du fichier. Les valeurs prises en charge sont assistants, , assistants_outputbatch, batch_outputet fine-tunefine-tune-results.
Valeurs possibles : assistants, , assistants_outputbatch, batch_outputfine-tune, fine-tune-resultsevals
Yes
status enum
Valeurs possibles : uploaded, , pendingrunning, processederror, deletingdeleted
Yes
status_details string Deprecated. Pour plus d’informations sur la raison de l’échec de la validation d’un fichier d’entraînement de réglage précis, consultez le error champ sur fine_tuning.job. No

AzureOpenAIVideoGenerationErrorResponse

Name Type Description Required Default
code string Identificateur distinct généré par l’ordinateur pour l’erreur. No
inner_error object Le cas échéant, une erreur en amont qui provient de cette erreur. No
└─ code enum Code associé à l’erreur interne.
Valeurs possibles : ResponsibleAIPolicyViolation
No
└─ error_details Détails du résultat du filtre de contenu associés à l’erreur interne. No
└─ revised_prompt string Le cas échéant, l’invite modifiée utilisée pour la génération. No
message string Message lisible par l’homme associé à l’erreur. No
param string Le cas échéant, le paramètre d’entrée de requête associé à l’erreur No
type string Le cas échéant, le numéro de ligne d’entrée associé à l’erreur. No

AzureResponse

Name Type Description Required Default
background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
created_at integer Horodatage Unix (en secondes) de la création de cette réponse. Yes
error object Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. Yes
└─ code OpenAI.ResponseErrorCode Code d’erreur de la réponse. No
└─ message string Description lisible par l’homme de l’erreur. No
id string Identificateur unique pour cette réponse. Yes
incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. Yes
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
instructions chaîne ou tableau Yes
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
model string Modèle utilisé pour générer cette réponse. Yes
object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Yes
output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
Yes
output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Yes True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
prompt object Référence à un modèle d’invite et à ses variables. No
└─ id string Identificateur unique du modèle d’invite à utiliser. No
└─ variables OpenAI.ResponsePromptVariables Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. No
└─ version string Version facultative du modèle d’invite. No
reasoning object Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ effort OpenAI.ReasoningEffort Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
└─ generate_summary enum Déconseillé : utilisez summary à la place.

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
└─ summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
Yes
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
No
└─ type OpenAI.ToolChoiceObjectType Indique que le modèle doit utiliser un outil intégré pour générer une réponse. No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
Yes
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. Yes

AzureSearchChatDataSource

Représente une configuration de source de données qui utilisera une ressource de recherche Azure.

Name Type Description Required Default
parameters object Informations de paramètre pour contrôler l’utilisation de la source de données de recherche Azure. Yes
└─ allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
└─ authentication object No
└─ access_token string No
└─ key string No
└─ managed_identity_resource_id string No
└─ type enum
Valeurs possibles : access_token
No
└─ embedding_dependency object Représente une source de vectorisation qui effectue des appels de service public sur un déploiement de modèle incorporé OpenAI Azure. No
└─ authentication AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions Mécanisme d’authentification à utiliser avec la source de vectorisation basée sur le point de terminaison.
L’authentification par point de terminaison prend en charge les mécanismes de clé d’API et de jeton d’accès.
No
└─ deployment_name string Déploiement du modèle d’incorporation à utiliser pour la vectorisation. Ce déploiement doit exister dans le même Azure ressource OpenAI que le déploiement de modèle utilisé pour les achèvements de conversation. No
└─ dimensions integer Nombre de dimensions à demander sur les incorporations.
Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures.
No
└─ endpoint string Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées.
Il doit être au format suivant :
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Le paramètre de requête api-version n’est pas autorisé.
No
└─ type enum Identificateur de type, toujours « intégré » pour ce type de source de vectorisation.
Valeurs possibles : integrated
No
└─ endpoint string Chemin d’accès absolu du point de terminaison pour la ressource de recherche Azure à utiliser. No
└─ fields_mapping object Mappages de champs à utiliser avec la ressource de recherche Azure. No
└─ content_fields array Noms des champs d’index qui doivent être traités comme du contenu. No
└─ content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
└─ filepath_field string Nom du champ d’index à utiliser comme chemin de fichier. No
└─ image_vector_fields array Noms des champs qui représentent des données de vecteur d’image. No
└─ title_field string Nom du champ d’index à utiliser comme titre. No
└─ url_field string Nom du champ d’index à utiliser comme URL. No
└─ vector_fields array Noms des champs qui représentent des données vectorielles. No
└─ filter string Filtre à appliquer à la recherche. No
└─ in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation des données indexées. No
└─ include_contexts array Propriétés du contexte de sortie à inclure dans la réponse.
Par défaut, les citations et l’intention sont demandées.
No ['citations', 'intent']
└─ index_name string Nom de l’index à utiliser, tel que spécifié dans la ressource de recherche Azure. No
└─ max_search_queries integer Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur.
Par défaut, le système effectue une détermination automatique.
No
└─ query_type enum Type de requête pour la ressource de recherche Azure à utiliser.
Valeurs possibles : simple, , semanticvector, vector_simple_hybrid,vector_semantic_hybrid
No
└─ semantic_configuration string Configuration sémantique supplémentaire pour la requête. No
└─ strictness integer La rigueur configurée du filtrage de pertinence de la recherche.
Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible.
No
└─ top_n_documents integer Nombre configuré de documents à présenter dans la requête. No
type enum Identificateur de type discriminé, qui est toujours « azure_search ».
Valeurs possibles : azure_search
Yes

AzureUserSecurityContext

Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud.

Name Type Description Required Default
application_name string Nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_id string Cet identificateur est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_tenant_id string L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multilocataire. No
source_ip string Capture l’adresse IP du client d’origine. No

ChatCompletionMessageToolCallsItem

Les appels d’outil générés par le modèle, tels que les appels de fonction.

Tableau de : OpenAI.ChatCompletionMessageToolCall

CreateVideoGenerationRequest

Name Type Description Required Default
height integer Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes
model string Nom du déploiement à utiliser pour cette demande. Yes
n_seconds integer Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. No 5
n_variants integer Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. No 1
prompt string Invite de ce travail de génération de vidéos. Yes
width integer Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes

CreateVideoGenerationWithMediaRequestMultiPart

Propriétés d’une demande de travail de génération vidéo avec des fichiers multimédias.

Name Type Description Required Default
files array Yes
height integer Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes
inpaint_items array Éléments d’inpainting facultatifs pour ce travail de génération de vidéos. No
model string Nom du déploiement à utiliser pour cette demande. Yes
n_seconds integer Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. No 5
n_variants integer Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. No 1
prompt string Invite de ce travail de génération de vidéos. Yes
width integer Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. Yes

CropBounds

Limites de rognage d’un élément inpainting. Cela spécifie la zone de l’élément multimédia qui doit être utilisée pour l’inpainting.

Name Type Description Required Default
bottom_fraction number Limite inférieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. No 1
left_fraction number Limite gauche de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. No 0
right_fraction number Limite droite de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. No 1
top_fraction number Limite supérieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. No 0

ElasticsearchChatDataSource

Name Type Description Required Default
parameters object Informations de paramètre pour contrôler l’utilisation de la source de données Elasticsearch. Yes
└─ allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
└─ authentication object No
└─ encoded_api_key string No
└─ key string No
└─ key_id string No
└─ type enum
Valeurs possibles : encoded_api_key
No
└─ embedding_dependency AzureChatDataSourceVectorizationSource Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données. No
└─ endpoint string No
└─ fields_mapping object No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ vector_fields array No
└─ in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation des données indexées. No
└─ include_contexts array Propriétés du contexte de sortie à inclure dans la réponse.
Par défaut, les citations et l’intention sont demandées.
No ['citations', 'intent']
└─ index_name string No
└─ max_search_queries integer Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur.
Par défaut, le système effectue une détermination automatique.
No
└─ query_type enum
Valeurs possibles : simple, vector
No
└─ strictness integer La rigueur configurée du filtrage de pertinence de la recherche.
Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible.
No
└─ top_n_documents integer Nombre configuré de documents à présenter dans la requête. No
type enum Identificateur de type discriminé, qui est toujours « elasticsearch ».
Valeurs possibles : elasticsearch
Yes

InpaintItem

Élément inpainting pour un travail de génération de vidéos. Cela spécifie l’élément multimédia qui doit être utilisé pour l’inpainting dans la génération de vidéo.

Name Type Description Required Default
crop_bounds object Limites de rognage d’un élément inpainting.
Cela spécifie la zone de l’élément multimédia qui doit être utilisée pour l’inpainting.
No
└─ bottom_fraction number Limite inférieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. No 1
└─ left_fraction number Limite gauche de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. No 0
└─ right_fraction number Limite droite de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. No 1
└─ top_fraction number Limite supérieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. No 0
file_name string Nom de fichier de l’élément multimédia. Il doit correspondre au nom de fichier d’une pièce jointe dans cette demande. Yes
frame_index integer Index d’image pour cet élément multimédia. Cela spécifie l’image de départ dans la vidéo générée résultante pour cet élément inpainting. Yes 0
type object Type de l’élément inpainting. Yes

JobStatus

État d’un travail de génération de vidéos.

Property Value
Description État d’un travail de génération de vidéos.
Type string
Values preprocessing
queued
running
processing
cancelled
succeeded
failed

MediaItemType

Type de l’élément inpainting.

Property Value
Description Type de l’élément inpainting.
Type string
Values image

MongoDBChatDataSource

Name Type Description Required Default
parameters object Informations de paramètre pour contrôler l’utilisation de la source de données MongoDB. Yes
└─ allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
└─ app_name string Nom de l’application MongoDB. No
└─ authentication object No
└─ password string No
└─ type enum
Valeurs possibles : username_and_password
No
└─ username string No
└─ collection_name string Nom de la collection MongoDB. No
└─ database_name string Nom de la base de données MongoDB. No
└─ embedding_dependency object Représente une source de vectorisation qui effectue des appels de service public sur un déploiement de modèle incorporé OpenAI Azure. No
└─ authentication AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions Mécanisme d’authentification à utiliser avec la source de vectorisation basée sur le point de terminaison.
L’authentification par point de terminaison prend en charge les mécanismes de clé d’API et de jeton d’accès.
No
└─ deployment_name string Déploiement du modèle d’incorporation à utiliser pour la vectorisation. Ce déploiement doit exister dans le même Azure ressource OpenAI que le déploiement de modèle utilisé pour les achèvements de conversation. No
└─ dimensions integer Nombre de dimensions à demander sur les incorporations.
Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures.
No
└─ endpoint string Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées.
Il doit être au format suivant :
https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings.
Le paramètre de requête api-version n’est pas autorisé.
No
└─ type enum Identificateur de type, toujours « deployment_name » pour ce type de source de vectorisation.
Valeurs possibles : deployment_name
No
└─ endpoint string Nom du point de terminaison du cluster MongoDB. No
└─ fields_mapping object Mappages de champs à appliquer aux données utilisées par la source de données MongoDB.
Notez que les mappages de contenu et de champ vectoriel sont requis pour MongoDB.
No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ vector_fields array No
└─ in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation des données indexées. No
└─ include_contexts array Propriétés du contexte de sortie à inclure dans la réponse.
Par défaut, les citations et l’intention sont demandées.
No ['citations', 'intent']
└─ index_name string Nom de l’index MongoDB. No
└─ max_search_queries integer Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur.
Par défaut, le système effectue une détermination automatique.
No
└─ strictness integer La rigueur configurée du filtrage de pertinence de la recherche.
Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible.
No
└─ top_n_documents integer Nombre configuré de documents à présenter dans la requête. No
type enum Identificateur de type discriminé, qui est toujours « mongo_db ».
Valeurs possibles : mongo_db
Yes

OpenAI.Annotation

Discriminateur pour OpenAI.Annotation

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
file_citation OpenAI.AnnotationFileCitation
url_citation OpenAI.AnnotationUrlCitation
file_path OpenAI.AnnotationFilePath
Name Type Description Required Default
type OpenAI.AnnotationType Yes

OpenAI.AnnotationFileCitation

Citation à un fichier.

Name Type Description Required Default
file_id string ID du fichier. Yes
filename string Nom de fichier cité. Yes
index integer Index du fichier dans la liste des fichiers. Yes
type enum Type de la citation de fichier. Toujours file_citation.
Valeurs possibles : file_citation
Yes

OpenAI.AnnotationFilePath

Chemin d’accès à un fichier.

Name Type Description Required Default
file_id string ID du fichier. Yes
index integer Index du fichier dans la liste des fichiers. Yes
type enum Type du chemin d’accès au fichier. Toujours file_path.
Valeurs possibles : file_path
Yes

OpenAI.AnnotationType

Property Value
Type string
Values file_citation
url_citation
file_path
container_file_citation

OpenAI.AnnotationUrlCitation

Citation d’une ressource web utilisée pour générer une réponse de modèle.

Name Type Description Required Default
end_index integer Index du dernier caractère de la citation d’URL dans le message. Yes
start_index integer Index du premier caractère de la citation d’URL dans le message. Yes
title string Titre de la ressource web. Yes
type enum Type de la citation d’URL. Toujours url_citation.
Valeurs possibles : url_citation
Yes
url string URL de la ressource web. Yes

OpenAI.ApproximateLocation

Name Type Description Required Default
city string No
country string No
region string No
timezone string No
type enum
Valeurs possibles : approximate
Yes

OpenAI.AudioResponseFormat

Format de la sortie, dans l’une des options suivantes : json, , textsrt, verbose_json, ou vtt. Pour gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. Le seul format pris en charge est json.

Property Value
Description Format de la sortie, dans l’une des options suivantes : json, , textsrt, verbose_json, ou vtt. Pour gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. Le seul format pris en charge est json.
Type string
Values json
text
srt
verbose_json
vtt

OpenAI.AutoChunkingStrategyRequestParam

Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400.

Name Type Description Required Default
type enum Toujours auto.
Valeurs possibles : auto
Yes

OpenAI.ChatCompletionFunctionCallOption

La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Name Type Description Required Default
name string Nom de la fonction à appeler. Yes

OpenAI.ChatCompletionFunctions

Name Type Description Required Default
description string Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
parameters Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON.
Consultez la référence de schéma JSON pour obtenir de la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.
No

OpenAI.ChatCompletionMessageAudioChunk

Name Type Description Required Default
data string No
expires_at integer No
id string No
transcript string No

OpenAI.ChatCompletionMessageToolCall

Name Type Description Required Default
function object Fonction appelée par le modèle. Yes
└─ arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ name string Nom de la fonction à appeler. No
id string ID de l’appel de l’outil. Yes
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
Yes

OpenAI.ChatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ name string Nom de la fonction à appeler. No
id string ID de l’appel de l’outil. No
index integer Yes
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
No

OpenAI.ChatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
function object Yes
└─ name string Nom de la fonction à appeler. No
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
Yes

OpenAI.ChatCompletionRequestAssistantMessage

Messages envoyés par le modèle en réponse aux messages utilisateur.

Name Type Description Required Default
audio object Données relatives à une réponse audio précédente du modèle. No
└─ id string Identificateur unique pour une réponse audio précédente du modèle. No
content chaîne ou tableau No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
└─ arguments string No
└─ name string No
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
refusal string Message de refus de l’assistant. No
role enum Rôle de l’auteur des messages, dans ce cas assistant.
Valeurs possibles : assistant
Yes
tool_calls ChatCompletionMessageToolCallsItem Les appels d’outil générés par le modèle, tels que les appels de fonction. No

OpenAI.ChatCompletionRequestAssistantMessageContentPart

Name Type Description Required Default
refusal string Message de refus généré par le modèle. Yes
text string Contenu du texte. Yes
type enum Type de la partie de contenu.
Valeurs possibles : refusal
Yes

OpenAI.ChatCompletionRequestDeveloperMessage

Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, developer les messages remplacent les messages précédents system .

Name Type Description Required Default
content chaîne ou tableau Yes
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
role enum Rôle de l’auteur des messages, dans ce cas developer.
Valeurs possibles : developer
Yes

OpenAI.ChatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Contenu du message de fonction. Yes
name string Nom de la fonction à appeler. Yes
role enum Rôle de l’auteur des messages, dans ce cas function.
Valeurs possibles : function
Yes

OpenAI.ChatCompletionRequestMessage

Discriminateur pour OpenAI.ChatCompletionRequestMessage

Ce composant utilise la propriété role pour faire la distinction entre différents types :

Type Value Schema
system OpenAI.ChatCompletionRequestSystemMessage
developer OpenAI.ChatCompletionRequestDeveloperMessage
user OpenAI.ChatCompletionRequestUserMessage
assistant OpenAI.ChatCompletionRequestAssistantMessage
tool OpenAI.ChatCompletionRequestToolMessage
function OpenAI.ChatCompletionRequestFunctionMessage
Name Type Description Required Default
content chaîne ou tableau No
role object Rôle de l’auteur d’un message Yes

OpenAI.ChatCompletionRequestMessageContentPart

Discriminateur pour OpenAI.ChatCompletionRequestMessageContentPart

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
text OpenAI.ChatCompletionRequestMessageContentPartText
image_url OpenAI.ChatCompletionRequestMessageContentPartImage
refusal OpenAI.ChatCompletionRequestMessageContentPartRefusal
file OpenAI.ChatCompletionRequestMessageContentPartFile
input_audio OpenAI.ChatCompletionRequestMessageContentPartAudio
Name Type Description Required Default
type OpenAI.ChatCompletionRequestMessageContentPartType Yes

OpenAI.ChatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Données audio encodées en base64. No
└─ format enum Format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ».
Valeurs possibles : wav, mp3
No
type enum Type de la partie de contenu. Toujours input_audio.
Valeurs possibles : input_audio
Yes

OpenAI.ChatCompletionRequestMessageContentPartFile

Name Type Description Required Default
file object Yes
└─ file_data string Données de fichier encodées en base64, utilisées lors du passage du fichier au modèle sous forme de chaîne. No
└─ file_id string ID d’un fichier chargé à utiliser comme entrée. No
└─ filename string Nom du fichier, utilisé lors du passage du fichier au modèle sous forme de chaîne. No
type enum Type de la partie de contenu. Toujours file.
Valeurs possibles : file
Yes

OpenAI.ChatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Spécifie le niveau de détail de l’image.
Valeurs possibles : auto, , lowhigh
No
└─ url string URL de l’image ou des données d’image encodées en base64. No
type enum Type de la partie de contenu.
Valeurs possibles : image_url
Yes

OpenAI.ChatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Message de refus généré par le modèle. Yes
type enum Type de la partie de contenu.
Valeurs possibles : refusal
Yes

OpenAI.ChatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Contenu du texte. Yes
type enum Type de la partie de contenu.
Valeurs possibles : text
Yes

OpenAI.ChatCompletionRequestMessageContentPartType

Property Value
Type string
Values text
file
input_audio
image_url
refusal

OpenAI.ChatCompletionRequestSystemMessage

Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, utilisez developer plutôt des messages à cet effet.

Name Type Description Required Default
content chaîne ou tableau Yes
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
role enum Rôle de l’auteur des messages, dans ce cas system.
Valeurs possibles : system
Yes

OpenAI.ChatCompletionRequestSystemMessageContentPart

References: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestToolMessage

Name Type Description Required Default
content chaîne ou tableau Yes
role enum Rôle de l’auteur des messages, dans ce cas tool.
Valeurs possibles : tool
Yes
tool_call_id string Appel de l’outil auquel ce message répond. Yes

OpenAI.ChatCompletionRequestToolMessageContentPart

References: OpenAI.ChatCompletionRequestMessageContentPartText

OpenAI.ChatCompletionRequestUserMessage

Messages envoyés par un utilisateur final, contenant des invites ou des informations de contexte supplémentaires.

Name Type Description Required Default
content chaîne ou tableau Yes
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
role enum Rôle de l’auteur des messages, dans ce cas user.
Valeurs possibles : user
Yes

OpenAI.ChatCompletionRequestUserMessageContentPart

Name Type Description Required Default
file object Yes
└─ file_data string Données de fichier encodées en base64, utilisées lors du passage du fichier au modèle sous forme de chaîne. No
└─ file_id string ID d’un fichier chargé à utiliser comme entrée. No
└─ filename string Nom du fichier, utilisé lors du passage du fichier au modèle sous forme de chaîne. No
image_url object Yes
└─ detail enum Spécifie le niveau de détail de l’image.
Valeurs possibles : auto, , lowhigh
No
└─ url string URL de l’image ou des données d’image encodées en base64. No
input_audio object Yes
└─ data string Données audio encodées en base64. No
└─ format enum Format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ».
Valeurs possibles : wav, mp3
No
text string Contenu du texte. Yes
type enum Type de la partie de contenu. Toujours file.
Valeurs possibles : file
Yes

OpenAI.ChatCompletionRole

Rôle de l’auteur d’un message

Property Value
Description Rôle de l’auteur d’un message
Type string
Values system
developer
user
assistant
tool
function

OpenAI.ChatCompletionStreamOptions

Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Name Type Description Required Default
include_usage boolean Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide.

Tous les autres blocs incluent également un usage champ, mais avec une valeur Null. NOTE: Si le flux est interrompu, vous ne recevez peut-être pas le bloc d’utilisation final qui contient l’utilisation totale du jeton pour la demande.
No

OpenAI.ChatCompletionStreamResponseDelta

Delta de saisie semi-automatique de conversation généré par les réponses de modèle diffusées en continu.

Name Type Description Required Default
audio object No
└─ data string No
└─ expires_at integer No
└─ id string No
└─ transcript string No
content string Contenu du message de bloc. No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
└─ arguments string No
└─ name string No
refusal string Message de refus généré par le modèle. No
role object Rôle de l’auteur d’un message No
tool_calls array No

OpenAI.ChatCompletionTokenLogprob

Name Type Description Required Default
bytes array Liste d’entiers représentant la représentation UTF-8 octets du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations d’octets doivent être combinés pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation d’octets pour le jeton. Yes
logprob number Probabilité de journal de ce jeton, s’il se trouve dans les 20 premiers jetons les plus probables. Sinon, la valeur -9999.0 est utilisée pour indiquer que le jeton est très peu probable. Yes
token string The token. Yes
top_logprobs array Liste des jetons les plus probables et de leur probabilité de journal, à cette position de jeton. Dans de rares cas, il peut y avoir moins de nombre de demandes top_logprobs retournées. Yes

OpenAI.ChatCompletionTool

Name Type Description Required Default
function OpenAI.FunctionObject Yes
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
Yes

OpenAI.ChatCompletionToolChoiceOption

Contrôle (le cas échéant) l’outil appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si les outils sont présents.

Name Type Description Required Default
function object Yes
└─ name string Nom de la fonction à appeler. No
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
Yes

OpenAI.ChatOutputPrediction

Représentation de base de la sortie prédite à partir d’un modèle.

Discriminateur pour OpenAI.ChatOutputPrediction

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
content OpenAI.ChatOutputPredictionContent
Name Type Description Required Default
type OpenAI.ChatOutputPredictionType Yes

OpenAI.ChatOutputPredictionContent

Contenu de sortie prédit statique, tel que le contenu d’un fichier texte régénéré.

Name Type Description Required Default
content chaîne ou tableau Yes
type enum Type du contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.
Valeurs possibles : content
Yes

OpenAI.ChatOutputPredictionType

Property Value
Type string
Values content

OpenAI.ChunkingStrategyRequestParam

Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie.

Discriminateur pour OpenAI.ChunkingStrategyRequestParam

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
static OpenAI.StaticChunkingStrategyRequestParam
Name Type Description Required Default
type enum Type de stratégie de segmentation.
Valeurs possibles : auto, static
Yes

OpenAI.ChunkingStrategyResponseParam

Discriminateur pour OpenAI.ChunkingStrategyResponseParam

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
other OpenAI.OtherChunkingStrategyResponseParam
static OpenAI.StaticChunkingStrategyResponseParam
Name Type Description Required Default
type enum
Valeurs possibles : static, other
Yes

OpenAI.CodeInterpreterOutput

Discriminateur pour OpenAI.CodeInterpreterOutput

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
image OpenAI.CodeInterpreterOutputImage
logs OpenAI.CodeInterpreterOutputLogs
Name Type Description Required Default
type OpenAI.CodeInterpreterOutputType Yes

OpenAI.CodeInterpreterOutputImage

Sortie de l’image de l’interpréteur de code.

Name Type Description Required Default
type enum Type de la sortie. Always 'image'.
Valeurs possibles : image
Yes
url string URL de la sortie de l’image à partir de l’interpréteur de code. Yes

OpenAI.CodeInterpreterOutputLogs

Sortie des journaux à partir de l’interpréteur de code.

Name Type Description Required Default
logs string Sortie des journaux à partir de l’interpréteur de code. Yes
type enum Type de la sortie. Always 'logs'.
Valeurs possibles : logs
Yes

OpenAI.CodeInterpreterOutputType

Property Value
Type string
Values logs
image

OpenAI.CodeInterpreterTool

Outil qui exécute Python code pour aider à générer une réponse à une invite.

Name Type Description Required Default
container object Configuration d’un conteneur d’interpréteur de code. Spécifiez éventuellement les ID des fichiers sur utilisant le code. Yes
└─ file_ids array Liste facultative des fichiers chargés à mettre à la disposition de votre code. No
└─ type enum Toujours auto.
Valeurs possibles : auto
No
type enum Type de l’outil d’interpréteur de code. Toujours code_interpreter.
Valeurs possibles : code_interpreter
Yes

OpenAI.CodeInterpreterToolAuto

Configuration d’un conteneur d’interpréteur de code. Spécifiez éventuellement les ID des fichiers sur utilisant le code.

Name Type Description Required Default
file_ids array Liste facultative des fichiers chargés à mettre à la disposition de votre code. No
type enum Toujours auto.
Valeurs possibles : auto
Yes

OpenAI.CodeInterpreterToolCallItemParam

Un appel d’outil pour exécuter du code.

Name Type Description Required Default
code string Code à exécuter, ou null s’il n’est pas disponible. Yes
container_id string ID du conteneur utilisé pour exécuter le code. Yes
outputs array Sorties générées par l’interpréteur de code, telles que les journaux ou les images.
Peut être null si aucune sortie n’est disponible.
Yes
type enum
Valeurs possibles : code_interpreter_call
Yes

OpenAI.CodeInterpreterToolCallItemResource

Un appel d’outil pour exécuter du code.

Name Type Description Required Default
code string Code à exécuter, ou null s’il n’est pas disponible. Yes
container_id string ID du conteneur utilisé pour exécuter le code. Yes
outputs array Sorties générées par l’interpréteur de code, telles que les journaux ou les images.
Peut être null si aucune sortie n’est disponible.
Yes
status enum
Valeurs possibles : in_progress, , completedincomplete, interpreting,failed
Yes
type enum
Valeurs possibles : code_interpreter_call
Yes

OpenAI.ComparisonFilter

Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.

Name Type Description Required Default
key string Clé à comparer à la valeur. Yes
type enum Spécifie l’opérateur de comparaison : eq, , negt, gtelt, . lte
- eq:Égale
- ne: non égal
- gt: supérieur à
- gte: supérieur ou égal à
- lt: inférieur à
- lte: inférieur ou égal.
Valeurs possibles : eq, , negt, gte, ltlte
Yes
value chaîne ou nombre ou booléen Yes

OpenAI.CompletionUsage

Statistiques d’utilisation pour la demande d’achèvement.

Name Type Description Required Default
completion_tokens integer Nombre de jetons dans la saisie semi-automatique générée. Yes 0
completion_tokens_details object Répartition des jetons utilisés dans une saisie semi-automatique. No
└─ accepted_prediction_tokens integer Lors de l’utilisation des sorties prédites, nombre de jetons dans la prédiction qui apparaissent dans la saisie semi-automatique. No 0
└─ audio_tokens integer Jetons d’entrée audio générés par le modèle. No 0
└─ reasoning_tokens integer Jetons générés par le modèle pour le raisonnement. No 0
└─ rejected_prediction_tokens integer Lorsque vous utilisez des sorties prédites, nombre de jetons dans la prédiction qui n’apparaissent pas dans la saisie semi-automatique. Toutefois, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. No 0
prompt_tokens integer Nombre de jetons dans l’invite. Yes 0
prompt_tokens_details object Répartition des jetons utilisés dans l’invite. No
└─ audio_tokens integer Jetons d’entrée audio présents dans l’invite. No 0
└─ cached_tokens integer Jetons mis en cache présents dans l’invite. No 0
total_tokens integer Nombre total de jetons utilisés dans la requête (invite + achèvement). Yes 0

OpenAI.CompoundFilter

Combinez plusieurs filtres à l’aide and ou or.

Name Type Description Required Default
filters array Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. Yes
type enum Type d’opération : and ou or.
Valeurs possibles : and, or
Yes

OpenAI.ComputerAction

Discriminateur pour OpenAI.ComputerAction

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
click OpenAI.ComputerActionClick
double_click OpenAI.ComputerActionDoubleClick
drag OpenAI.ComputerActionDrag
move OpenAI.ComputerActionMove
screenshot OpenAI.ComputerActionScreenshot
scroll OpenAI.ComputerActionScroll
type OpenAI.ComputerActionTypeKeys
wait OpenAI.ComputerActionWait
keypress OpenAI.ComputerActionKeyPress
Name Type Description Required Default
type OpenAI.ComputerActionType Yes

OpenAI.ComputerActionClick

Action de clic.

Name Type Description Required Default
button enum Indique le bouton de la souris enfoncé pendant le clic. Un des left, , right, wheel, backou forward.
Valeurs possibles : left, , rightwheel, back,forward
Yes
type enum Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours définie sur click.
Valeurs possibles : click
Yes
x integer Coordonnée x où le clic s’est produit. Yes
y integer Coordonnée y où le clic s’est produit. Yes

OpenAI.ComputerActionDoubleClick

Action double-clic.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action en double-clic, cette propriété est toujours définie double_clicksur .
Valeurs possibles : double_click
Yes
x integer Coordonnée x où le double-clic s’est produit. Yes
y integer Coordonnée y où le double-clic s’est produit. Yes

OpenAI.ComputerActionDrag

Action glisser.

Name Type Description Required Default
path array Tableau de coordonnées représentant le chemin d’accès de l’action glisser. Les coordonnées apparaissent sous la forme d’un tableau d’objets, par exemple{ x: 100, y: 200 }, { x: 200, y: 300 } Yes
type enum Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours définie sur drag.
Valeurs possibles : drag
Yes

OpenAI.ComputerActionKeyPress

Une collection de touches de touches que le modèle souhaite effectuer.

Name Type Description Required Default
keys array La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé. Yes
type enum Spécifie le type d’événement. Pour une action keypress, cette propriété est toujours définie keypresssur .
Valeurs possibles : keypress
Yes

OpenAI.ComputerActionMove

Action de déplacement de la souris.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours définie sur move.
Valeurs possibles : move
Yes
x integer Coordonnée x à déplacer. Yes
y integer Coordonnée y à déplacer. Yes

OpenAI.ComputerActionScreenshot

Action de capture d’écran.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.
Valeurs possibles : screenshot
Yes

OpenAI.ComputerActionScroll

Action de défilement.

Name Type Description Required Default
scroll_x integer Distance de défilement horizontale. Yes
scroll_y integer Distance de défilement verticale. Yes
type enum Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours définie sur scroll.
Valeurs possibles : scroll
Yes
x integer Coordonnée x où le défilement s’est produit. Yes
y integer Coordonnée y où le défilement s’est produit. Yes

OpenAI.ComputerActionType

Property Value
Type string
Values screenshot
click
double_click
scroll
type
wait
keypress
drag
move

OpenAI.ComputerActionTypeKeys

Action à taper dans le texte.

Name Type Description Required Default
text string Texte à taper. Yes
type enum Spécifie le type d’événement. Pour une action de type, cette propriété est toujours définie sur type.
Valeurs possibles : type
Yes

OpenAI.ComputerActionWait

Action d’attente.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie sur wait.
Valeurs possibles : wait
Yes

OpenAI.ComputerToolCallItemParam

Un appel d’outil à un outil d’utilisation d’ordinateur.

Name Type Description Required Default
action OpenAI.ComputerAction Yes
call_id string Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. Yes
pending_safety_checks array Vérifications de sécurité en attente pour l’appel de l’ordinateur. Yes
type enum
Valeurs possibles : computer_call
Yes

OpenAI.ComputerToolCallItemResource

Un appel d’outil à un outil d’utilisation d’ordinateur.

Name Type Description Required Default
action OpenAI.ComputerAction Yes
call_id string Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. Yes
pending_safety_checks array Vérifications de sécurité en attente pour l’appel de l’ordinateur. Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum
Valeurs possibles : computer_call
Yes

OpenAI.ComputerToolCallOutputItemOutput

Discriminateur pour OpenAI.ComputerToolCallOutputItemOutput

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
computer_screenshot OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
Name Type Description Required Default
type OpenAI.ComputerToolCallOutputItemOutputType Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. Yes

OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot

Name Type Description Required Default
file_id string No
image_url string No
type enum
Valeurs possibles : computer_screenshot
Yes

OpenAI.ComputerToolCallOutputItemOutputType

Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.

Property Value
Description Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
Type string
Values computer_screenshot

OpenAI.ComputerToolCallOutputItemParam

Sortie d’un appel d’outil informatique.

Name Type Description Required Default
acknowledged_safety_checks array Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. No
call_id string ID de l’appel de l’outil informatique qui a produit la sortie. Yes
output OpenAI.ComputerToolCallOutputItemOutput Yes
type enum
Valeurs possibles : computer_call_output
Yes

OpenAI.ComputerToolCallOutputItemResource

Sortie d’un appel d’outil informatique.

Name Type Description Required Default
acknowledged_safety_checks array Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. No
call_id string ID de l’appel de l’outil informatique qui a produit la sortie. Yes
output OpenAI.ComputerToolCallOutputItemOutput Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum
Valeurs possibles : computer_call_output
Yes

OpenAI.ComputerToolCallSafetyCheck

Contrôle de sécurité en attente pour l’appel de l’ordinateur.

Name Type Description Required Default
code string Type du contrôle de sécurité en attente. Yes
id string ID de la vérification de sécurité en attente. Yes
message string Détails sur le contrôle de sécurité en attente. Yes

OpenAI.ComputerUsePreviewTool

Outil qui contrôle un ordinateur virtuel.

Name Type Description Required Default
display_height integer Hauteur de l’affichage de l’ordinateur. Yes
display_width integer Largeur de l’affichage de l’ordinateur. Yes
environment enum Type d’environnement d’ordinateur à contrôler.
Valeurs possibles : windows, , maclinux, ubuntu,browser
Yes
type enum Type de l’outil d’utilisation de l’ordinateur. Toujours computer_use_preview.
Valeurs possibles : computer_use_preview
Yes

OpenAI.Coordinate

Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.

Name Type Description Required Default
x integer The x-coordinate. Yes
y integer The y-coordinate. Yes

OpenAI.CreateEmbeddingResponse

Name Type Description Required Default
data array Liste des incorporations générées par le modèle. Yes
model string Nom du modèle utilisé pour générer l’incorporation. Yes
object enum Type d’objet, qui est toujours « list ».
Valeurs possibles : list
Yes
usage object Informations d’utilisation de la demande. Yes
└─ prompt_tokens integer Nombre de jetons utilisés par l’invite. No
└─ total_tokens integer Nombre total de jetons utilisés par la requête. No

OpenAI.CreateEvalItem

Message de conversation qui compose l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}.

Name Type Description Required Default
content string ou OpenAI.EvalItemContent Entrées de texte dans le modèle : peut contenir des chaînes de modèle. Yes
role enum Rôle de l’entrée de message. Un des user, , assistant, systemou developer.
Valeurs possibles : user, , assistantsystem,developer
Yes
type enum Type de l’entrée de message. Toujours message.
Valeurs possibles : message
No

OpenAI.CreateEvalRunRequest

Name Type Description Required Default
data_source object Yes
└─ type OpenAI.EvalRunDataSourceType No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom de l’exécution. No

OpenAI.CreateFineTuningJobRequest

Valid models:

babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
Name Type Description Required Default
hyperparameters object Hyperparamètres utilisés pour le travail de réglage précis.
Cette valeur est désormais déconseillée en faveur de method, et doit être transmise sous le method paramètre.
No
└─ batch_size enum
Valeurs possibles : auto
No
└─ learning_rate_multiplier enum
Valeurs possibles : auto
No
└─ n_epochs enum
Valeurs possibles : auto
No
integrations array Liste des intégrations à activer pour votre travail de réglage précis. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
method OpenAI.FineTuneMethod Méthode utilisée pour le réglage précis. No
model chaîne (voir les modèles valides ci-dessous) Nom du modèle à ajuster. Yes
seed integer La valeur initiale contrôle la reproductibilité du travail. La transmission des mêmes paramètres de départ et de travail doit produire les mêmes résultats, mais peut différer dans de rares cas.
Si une valeur initiale n’est pas spécifiée, une valeur est générée pour vous.
No
suffix string Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné.

Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel.
No None
training_file string ID d’un fichier chargé qui contient des données d’apprentissage. Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.

Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence.
Yes
validation_file string ID d’un fichier chargé qui contient des données de validation.

Si vous fournissez ce fichier, les données sont utilisées pour générer régulièrement des métriques de validation pendant le réglage précis. Ces métriques peuvent être consultées dans le fichier de résultats de réglage précis.
Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation.

Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune.
No

OpenAI.CreateFineTuningJobRequestIntegration

Discriminateur pour OpenAI.CreateFineTuningJobRequestIntegration

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
wandb OpenAI.CreateFineTuningJobRequestWandbIntegration
Name Type Description Required Default
type chaîne (voir les modèles valides ci-dessous) Yes

OpenAI.CreateFineTuningJobRequestWandbIntegration

Name Type Description Required Default
type enum
Valeurs possibles : wandb
Yes
wandb object Yes
└─ entity string No
└─ name string No
└─ project string No
└─ tags array No

OpenAI.CreateVectorStoreFileBatchRequest

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_ids array Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

OpenAI.CreateVectorStoreFileRequest

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. No
chunking_strategy OpenAI.ChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_id string ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

OpenAI.CreateVectorStoreRequest

Name Type Description Required Default
chunking_strategy object Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400. No
└─ static OpenAI.StaticChunkingStrategy No
└─ type enum Toujours static.
Valeurs possibles : static
No
expires_after OpenAI.VectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
file_ids array Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom du magasin vectoriel. No

OpenAI.DeleteFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object enum
Valeurs possibles : file
Yes

OpenAI.DeleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object enum
Valeurs possibles : vector_store.file.deleted
Yes

OpenAI.DeleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object enum
Valeurs possibles : vector_store.deleted
Yes

OpenAI.Embedding

Représente un vecteur d’incorporation retourné par le point de terminaison d’incorporation.

Name Type Description Required Default
embedding tableau ou chaîne Yes
index integer Index de l’incorporation dans la liste des incorporations. Yes
object enum Type d’objet, qui est toujours « incorporation ».
Valeurs possibles : embedding
Yes

OpenAI.Eval

Objet Eval avec des critères de configuration et de test de source de données. Un Eval représente une tâche à effectuer pour votre intégration LLM. Like:

  • Améliorer la qualité de mon chatbot
  • Découvrez comment mon chatbot gère le support client
  • Vérifiez si o4-mini est préférable à ma casse que gpt-4o
Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour l’heure de création de l’eval. Yes
data_source_config object Yes
└─ type OpenAI.EvalDataSourceConfigType No
id string Identificateur unique de l’évaluation. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
name string Nom de l’évaluation. Yes
object enum Type d’objet.
Valeurs possibles : eval
Yes
testing_criteria array Liste des critères de test. Yes None

OpenAI.EvalApiError

Objet représentant une réponse d’erreur de l’API Eval.

Name Type Description Required Default
code string Code d’erreur. Yes
message string Message d’erreur. Yes

OpenAI.EvalCompletionsRunDataSourceParams

Objet CompletionsRunDataSource décrivant une configuration d’échantillonnage de modèle.

Name Type Description Required Default
input_messages object No
└─ item_reference string Référence à une variable dans l’espace item de noms. Ie, "item.input_trajectory" No
└─ template array Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}. No
└─ type enum Type de messages d’entrée. Toujours item_reference.
Valeurs possibles : item_reference
No
model string Nom du modèle à utiliser pour générer des achèvements (par exemple, « o3-mini »). No
sampling_params AzureEvalAPICompletionsSamplingParams No
source object Yes
└─ content array Contenu du fichier jsonl. No
└─ created_after integer Horodatage Unix facultatif pour filtrer les éléments créés après cette période. No
└─ created_before integer Horodatage Unix facultatif pour filtrer les éléments créés avant cette heure. No
└─ id string Identificateur du fichier. No
└─ limit integer Nombre maximal facultatif d’éléments à retourner. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ model string Modèle facultatif à filtrer par (par exemple, « gpt-4o »). No
└─ type enum Type de source. Toujours stored_completions.
Valeurs possibles : stored_completions
No
type enum Type de source de données d’exécution. Toujours completions.
Valeurs possibles : completions
Yes

OpenAI.EvalCustomDataSourceConfigParams

Objet CustomDataSourceConfig qui définit le schéma de la source de données utilisée pour les exécutions d’évaluation. Ce schéma est utilisé pour définir la forme des données qui seront :

  • Utilisé pour définir vos critères de test et
  • Quelles données sont requises lors de la création d’une exécution
Name Type Description Required Default
include_sample_schema boolean Indique si l’eval doit vous attendre à remplir l’exemple d’espace de noms (par exemple, en générant des réponses hors de votre source de données) No False
item_schema object Schéma json pour chaque ligne de la source de données. Yes
type enum Type de source de données. Toujours custom.
Valeurs possibles : custom
Yes

OpenAI.EvalCustomDataSourceConfigResource

CustomDataSourceConfig qui spécifie le schéma de vos item espaces de noms et éventuellement sample . Le schéma de réponse définit la forme des données qui seront :

  • Utilisé pour définir vos critères de test et
  • Quelles données sont requises lors de la création d’une exécution
Name Type Description Required Default
schema object Schéma json pour les éléments de source de données d’exécution.
Découvrez comment créer des schémas JSON ici.
Yes
type enum Type de source de données. Toujours custom.
Valeurs possibles : custom
Yes

OpenAI.EvalDataSourceConfigParams

Discriminateur pour OpenAI.EvalDataSourceConfigParams

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
custom OpenAI.EvalCustomDataSourceConfigParams
logs OpenAI.EvalLogsDataSourceConfigParams
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigParams
Name Type Description Required Default
type OpenAI.EvalDataSourceConfigType Yes

OpenAI.EvalDataSourceConfigResource

Discriminateur pour OpenAI.EvalDataSourceConfigResource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
custom OpenAI.EvalCustomDataSourceConfigResource
stored_completions OpenAI.EvalStoredCompletionsDataSourceConfigResource
logs OpenAI.EvalLogsDataSourceConfigResource
Name Type Description Required Default
type OpenAI.EvalDataSourceConfigType Yes

OpenAI.EvalDataSourceConfigType

Property Value
Type string
Values custom
logs
stored_completions

OpenAI.EvalGraderLabelModelParams

Objet LabelModelGrader qui utilise un modèle pour affecter des étiquettes à chaque élément de l’évaluation.

Name Type Description Required Default
input array Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}. Yes
labels array Étiquettes à classer sur chaque élément de l’évaluation. Yes
model string Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. Yes
name string Nom du classateur. Yes
passing_labels array Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. Yes
type enum Type d’objet, qui est toujours label_model.
Valeurs possibles : label_model
Yes

OpenAI.EvalGraderLabelModelResource

Name Type Description Required Default
input array Yes
labels array Étiquettes à affecter à chaque élément de l’évaluation. Yes
model string Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. Yes
name string Nom du classateur. Yes
passing_labels array Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. Yes
type enum Type d’objet, qui est toujours label_model.
Valeurs possibles : label_model
Yes

OpenAI.EvalGraderParams

Discriminateur pour OpenAI.EvalGraderParams

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
label_model OpenAI.EvalGraderLabelModelParams
string_check OpenAI.EvalGraderStringCheckParams
text_similarity OpenAI.EvalGraderTextSimilarityParams
python OpenAI.EvalGraderPythonParams
score_model OpenAI.EvalGraderScoreModelParams
Name Type Description Required Default
type OpenAI.GraderType Yes

OpenAI.EvalGraderPythonParams

Name Type Description Required Default
image_tag string Balise d’image à utiliser pour le script Python. No
name string Nom du classateur. Yes
pass_threshold number Seuil du score. No
source string Code source du script Python. Yes
type enum Type d’objet, qui est toujours python.
Valeurs possibles : python
Yes

OpenAI.EvalGraderPythonResource

Name Type Description Required Default
image_tag string Balise d’image à utiliser pour le script Python. No
name string Nom du classateur. Yes
pass_threshold number Seuil du score. No
source string Code source du script Python. Yes
type enum Type d’objet, qui est toujours python.
Valeurs possibles : python
Yes

OpenAI.EvalGraderResource

Discriminateur pour OpenAI.EvalGraderResource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
label_model OpenAI.EvalGraderLabelModelResource
text_similarity OpenAI.EvalGraderTextSimilarityResource
python OpenAI.EvalGraderPythonResource
score_model OpenAI.EvalGraderScoreModelResource
Name Type Description Required Default
type OpenAI.GraderType Yes

OpenAI.EvalGraderScoreModelParams

Name Type Description Required Default
input array Texte d’entrée. Cela peut inclure des chaînes de modèle. Yes
model string Modèle à utiliser pour l’évaluation. Yes
name string Nom du classateur. Yes
pass_threshold number Seuil du score. No
range array Plage du score. La valeur par défaut est [0, 1]. No
sampling_params Paramètres d’échantillonnage du modèle. No
type enum Type d’objet, qui est toujours score_model.
Valeurs possibles : score_model
Yes

OpenAI.EvalGraderScoreModelResource

Name Type Description Required Default
input array Texte d’entrée. Cela peut inclure des chaînes de modèle. Yes
model string Modèle à utiliser pour l’évaluation. Yes
name string Nom du classateur. Yes
pass_threshold number Seuil du score. No
range array Plage du score. La valeur par défaut est [0, 1]. No
sampling_params Paramètres d’échantillonnage du modèle. No
type enum Type d’objet, qui est toujours score_model.
Valeurs possibles : score_model
Yes

OpenAI.EvalGraderStringCheckParams

Name Type Description Required Default
input string Texte d’entrée. Cela peut inclure des chaînes de modèle. Yes
name string Nom du classateur. Yes
operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
Yes
reference string Texte de référence. Cela peut inclure des chaînes de modèle. Yes
type enum Type d’objet, qui est toujours string_check.
Valeurs possibles : string_check
Yes

OpenAI.EvalGraderTextSimilarityParams

Name Type Description Required Default
evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
Yes
input string Texte classé. Yes
name string Nom du classateur. Yes
pass_threshold number Seuil du score. Yes
reference string Texte en cours de classement. Yes
type enum Type de nuanceur.
Valeurs possibles : text_similarity
Yes

OpenAI.EvalGraderTextSimilarityResource

Name Type Description Required Default
evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
Yes
input string Texte classé. Yes
name string Nom du classateur. Yes
pass_threshold number Seuil du score. Yes
reference string Texte en cours de classement. Yes
type enum Type de nuanceur.
Valeurs possibles : text_similarity
Yes

OpenAI.EvalItem

Entrée de message au modèle avec un rôle indiquant l’instruction suivante. Les instructions fournies avec le rôle ou developer le system rôle sont prioritaires sur les instructions fournies avec le user rôle. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.

Name Type Description Required Default
content object Yes
└─ type OpenAI.EvalItemContentType No
role enum Rôle de l’entrée de message. Un des user, , assistant, systemou developer.
Valeurs possibles : user, , assistantsystem,developer
Yes
type enum Type de l’entrée de message. Toujours message.
Valeurs possibles : message
No

OpenAI.EvalItemContent

Discriminateur pour OpenAI.EvalItemContent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
input_text OpenAI.EvalItemContentInputText
output_text OpenAI.EvalItemContentOutputText
Name Type Description Required Default
type OpenAI.EvalItemContentType Yes

OpenAI.EvalItemContentInputText

Name Type Description Required Default
text string Yes
type enum
Valeurs possibles : input_text
Yes

OpenAI.EvalItemContentOutputText

Name Type Description Required Default
text string Yes
type enum
Valeurs possibles : output_text
Yes

OpenAI.EvalItemContentType

Property Value
Type string
Values input_text
output_text

OpenAI.EvalJsonlRunDataSourceParams

Objet JsonlRunDataSource avec lequel spécifie un fichier JSONL qui correspond à l’eval

Name Type Description Required Default
source object Yes
└─ content array Contenu du fichier jsonl. No
└─ id string Identificateur du fichier. No
└─ type enum Type de source jsonl. Toujours file_id.
Valeurs possibles : file_id
No
type enum Type de source de données. Toujours jsonl.
Valeurs possibles : jsonl
Yes

OpenAI.EvalList

Objet représentant une liste d’evals.

Name Type Description Required Default
data array Tableau d’objets d’évaluation. Yes
first_id string Identificateur du premier eval dans le tableau de données. Yes
has_more boolean Indique si d’autres évaluations sont disponibles. Yes
last_id string Identificateur du dernier eval dans le tableau de données. Yes
object enum Type de cet objet. Elle est toujours définie sur « list ».
Valeurs possibles : list
Yes

OpenAI.EvalLogsDataSourceConfigParams

Configuration de source de données qui spécifie la propriété de métadonnées de votre requête de journaux d’activité. Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc.

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
type enum Type de source de données. Toujours logs.
Valeurs possibles : logs
Yes

OpenAI.EvalLogsDataSourceConfigResource

LogsDataSourceConfig qui spécifie la propriété de métadonnées de votre requête de journaux d’activité. Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc. Le schéma retourné par cette configuration de source de données est utilisé pour définir les variables disponibles dans vos évaluations. item et sample sont tous les deux définis lors de l’utilisation de cette configuration de source de données.

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
schema object Schéma json pour les éléments de source de données d’exécution.
Découvrez comment créer des schémas JSON ici.
Yes
type enum Type de source de données. Toujours logs.
Valeurs possibles : logs
Yes

OpenAI.EvalResponsesRunDataSourceParams

Objet ResponsesRunDataSource décrivant une configuration d’échantillonnage de modèle.

Name Type Description Required Default
input_messages object No
└─ item_reference string Référence à une variable dans l’espace item de noms. Ie, "item.name" No
└─ template array Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}. No
└─ type enum Type de messages d’entrée. Toujours item_reference.
Valeurs possibles : item_reference
No
model string Nom du modèle à utiliser pour générer des achèvements (par exemple, « o3-mini »). No
sampling_params AzureEvalAPIResponseSamplingParams No
source object Yes
└─ content array Contenu du fichier jsonl. No
└─ created_after integer Incluez uniquement les éléments créés après cet horodatage (inclusif). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ created_before integer Incluez uniquement les éléments créés avant cet horodatage (inclus). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ id string Identificateur du fichier. No
└─ instructions_search string Chaîne facultative pour rechercher le champ « instructions ». Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ model string Nom du modèle pour lequel rechercher des réponses. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ reasoning_effort OpenAI.ReasoningEffort Paramètre d’effort de raisonnement facultatif. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ temperature number Sampling temperature. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ tools array Liste des noms d’outils. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ top_p number Paramètre d’échantillonnage du noyau. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
└─ type enum Type de source de données d’exécution. Toujours responses.
Valeurs possibles : responses
No
└─ users array Liste des identificateurs d’utilisateur. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
type enum Type de source de données d’exécution. Toujours responses.
Valeurs possibles : responses
Yes

OpenAI.EvalRun

Schéma représentant une exécution d’évaluation.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) lors de la création de l’exécution de l’évaluation. Yes
data_source object Yes
└─ type OpenAI.EvalRunDataSourceType No
error OpenAI.EvalApiError Objet représentant une réponse d’erreur de l’API Eval. Yes
eval_id string Identificateur de l’évaluation associée. Yes
id string Identificateur unique pour l’exécution de l’évaluation. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
model string Modèle évalué, le cas échéant. Yes
name string Nom de l’exécution de l’évaluation. Yes
object enum Type de l’objet. Always "eval.run".
Valeurs possibles : eval.run
Yes
per_model_usage array Statistiques d’utilisation pour chaque modèle pendant l’exécution de l’évaluation. Yes
per_testing_criteria_results array Résultats par critères de test appliqués pendant l’exécution de l’évaluation. Yes
report_url string URL du rapport d’exécution d’évaluation rendu sur le tableau de bord de l’interface utilisateur. Yes
result_counts object Compteurs récapitunant les résultats de l’exécution de l’évaluation. Yes
└─ errored integer Nombre d’éléments de sortie qui ont entraîné une erreur. No
└─ failed integer Nombre d’éléments de sortie qui n’ont pas réussi à passer l’évaluation. No
└─ passed integer Nombre d’éléments de sortie qui ont passé l’évaluation. No
└─ total integer Nombre total d’éléments de sortie exécutés. No
status string État de l’exécution de l’évaluation. Yes

OpenAI.EvalRunDataContentSource

Discriminateur pour OpenAI.EvalRunDataContentSource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
file_id OpenAI.EvalRunFileIdDataContentSource
stored_completions OpenAI.EvalRunStoredCompletionsDataContentSource
responses OpenAI.EvalRunResponsesDataContentSource
Name Type Description Required Default
type OpenAI.EvalRunDataContentSourceType Yes

OpenAI.EvalRunDataContentSourceType

Property Value
Type string
Values file_id
file_content
stored_completions
responses

OpenAI.EvalRunDataSourceCompletionsResource

Name Type Description Required Default
type enum
Valeurs possibles : completions
Yes

OpenAI.EvalRunDataSourceJsonlResource

Name Type Description Required Default
type enum
Valeurs possibles : jsonl
Yes

OpenAI.EvalRunDataSourceParams

Discriminateur pour OpenAI.EvalRunDataSourceParams

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
jsonl OpenAI.EvalJsonlRunDataSourceParams
completions OpenAI.EvalCompletionsRunDataSourceParams
responses OpenAI.EvalResponsesRunDataSourceParams
Name Type Description Required Default
type OpenAI.EvalRunDataSourceType Yes

OpenAI.EvalRunDataSourceResource

Name Type Description Required Default
type OpenAI.EvalRunDataSourceType Yes

OpenAI.EvalRunDataSourceResponsesResource

Name Type Description Required Default
type enum
Valeurs possibles : responses
Yes

OpenAI.EvalRunDataSourceType

Property Value
Type string
Values jsonl
completions
responses

OpenAI.EvalRunFileContentDataContentSource

Name Type Description Required Default
content array Contenu du fichier jsonl. Yes
type enum Type de source jsonl. Toujours file_content.
Valeurs possibles : file_content
Yes

OpenAI.EvalRunFileIdDataContentSource

Name Type Description Required Default
id string Identificateur du fichier. Yes
type enum Type de source jsonl. Toujours file_id.
Valeurs possibles : file_id
Yes

OpenAI.EvalRunList

Objet représentant une liste d’exécutions pour une évaluation.

Name Type Description Required Default
data array Tableau d’objets d’exécution d’évaluation. Yes
first_id string Identificateur de la première exécution d’évaluation dans le tableau de données. Yes
has_more boolean Indique si d’autres évaluations sont disponibles. Yes
last_id string Identificateur de la dernière exécution eval dans le tableau de données. Yes
object enum Type de cet objet. Elle est toujours définie sur « list ».
Valeurs possibles : list
Yes

OpenAI.EvalRunOutputItem

Schéma représentant un élément de sortie d’exécution d’évaluation.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) lors de la création de l’exécution de l’évaluation. Yes
datasource_item object Détails de l’élément de source de données d’entrée. Yes
datasource_item_id integer Identificateur de l’élément de source de données. Yes
eval_id string Identificateur du groupe d’évaluation. Yes
id string Identificateur unique de l’élément de sortie d’exécution d’évaluation. Yes
object enum Type de l’objet. Always "eval.run.output_item".
Valeurs possibles : eval.run.output_item
Yes
results array Liste des résultats de l’exécution d’évaluation. Yes
run_id string Identificateur de l’exécution d’évaluation associée à cet élément de sortie. Yes
sample object Exemple contenant l’entrée et la sortie de l’exécution de l’évaluation. Yes
└─ error OpenAI.EvalApiError Objet représentant une réponse d’erreur de l’API Eval. No
└─ finish_reason string Raison pour laquelle l’exemple de génération a été terminé. No
└─ input array Tableau de messages d’entrée. No
└─ max_completion_tokens integer Nombre maximal de jetons autorisés pour l’achèvement. No
└─ model string Modèle utilisé pour générer l’exemple. No
└─ output array Tableau de messages de sortie. No
└─ seed integer Valeur initiale utilisée pour générer l’exemple. No
└─ temperature number Température d’échantillonnage utilisée. No
└─ top_p number Valeur top_p utilisée pour l’échantillonnage. No
└─ usage object Détails de l’utilisation du jeton pour l’exemple. No
└─ cached_tokens integer Nombre de jetons récupérés à partir du cache. No
└─ completion_tokens integer Nombre de jetons d’achèvement générés. No
└─ prompt_tokens integer Nombre de jetons d’invite utilisés. No
└─ total_tokens integer Nombre total de jetons utilisés. No
status string État de l’exécution de l’évaluation. Yes

OpenAI.EvalRunOutputItemList

Objet représentant une liste d’éléments de sortie pour une exécution d’évaluation.

Name Type Description Required Default
data array Tableau d’objets d’élément de sortie d’exécution eval. Yes
first_id string Identificateur du premier élément de sortie d’exécution eval dans le tableau de données. Yes
has_more boolean Indique s’il existe plus d’éléments de sortie d’exécution eval disponibles. Yes
last_id string Identificateur du dernier élément de sortie d’exécution eval dans le tableau de données. Yes
object enum Type de cet objet. Elle est toujours définie sur « list ».
Valeurs possibles : list
Yes

OpenAI.EvalRunResponsesDataContentSource

Objet EvalResponsesSource décrivant une configuration de source de données d’exécution.

Name Type Description Required Default
created_after integer Incluez uniquement les éléments créés après cet horodatage (inclusif). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
created_before integer Incluez uniquement les éléments créés avant cet horodatage (inclus). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
instructions_search string Chaîne facultative pour rechercher le champ « instructions ». Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Nom du modèle pour lequel rechercher des réponses. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
reasoning_effort object Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
temperature number Sampling temperature. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
tools array Liste des noms d’outils. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
top_p number Paramètre d’échantillonnage du noyau. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No
type enum Type de source de données d’exécution. Toujours responses.
Valeurs possibles : responses
Yes
users array Liste des identificateurs d’utilisateur. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. No

OpenAI.EvalRunStoredCompletionsDataContentSource

Configuration StoredCompletionsRunDataSource décrivant un ensemble de filtres

Name Type Description Required Default
created_after integer Horodatage Unix facultatif pour filtrer les éléments créés après cette période. No
created_before integer Horodatage Unix facultatif pour filtrer les éléments créés avant cette heure. No
limit integer Nombre maximal facultatif d’éléments à retourner. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
model string Modèle facultatif à filtrer par (par exemple, « gpt-4o »). No
type enum Type de source. Toujours stored_completions.
Valeurs possibles : stored_completions
Yes

OpenAI.EvalStoredCompletionsDataSourceConfigParams

Déconseillé en faveur de LogsDataSourceConfig.

Name Type Description Required Default
metadata object Filtres de métadonnées pour la source de données de saisie semi-automatique stockée. No
type enum Type de source de données. Toujours stored_completions.
Valeurs possibles : stored_completions
Yes

OpenAI.EvalStoredCompletionsDataSourceConfigResource

Déconseillé en faveur de LogsDataSourceConfig.

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
schema object Schéma json pour les éléments de source de données d’exécution.
Découvrez comment créer des schémas JSON ici.
Yes
type enum Type de source de données. Toujours stored_completions.
Valeurs possibles : stored_completions
Yes

OpenAI.FileSearchTool

Outil qui recherche le contenu pertinent à partir de fichiers chargés.

Name Type Description Required Default
filters object No
max_num_results integer Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. No
ranking_options object No
└─ ranker enum Ranker à utiliser pour la recherche de fichiers.
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. No
type enum Type de l’outil de recherche de fichiers. Toujours file_search.
Valeurs possibles : file_search
Yes
vector_store_ids array ID des magasins vectoriels à rechercher. Yes

OpenAI.FileSearchToolCallItemParam

Résultats d’un appel d’outil de recherche de fichiers.

Name Type Description Required Default
queries array Requêtes utilisées pour rechercher des fichiers. Yes
results array Résultats de l’appel de l’outil de recherche de fichiers. No
type enum
Valeurs possibles : file_search_call
Yes

OpenAI.FileSearchToolCallItemResource

Résultats d’un appel d’outil de recherche de fichiers.

Name Type Description Required Default
queries array Requêtes utilisées pour rechercher des fichiers. Yes
results array Résultats de l’appel de l’outil de recherche de fichiers. No
status enum État de l’appel de l’outil de recherche de fichiers. Un des in_progress, searchingou incompletefailed.
Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed
Yes
type enum
Valeurs possibles : file_search_call
Yes

OpenAI.Filters

Name Type Description Required Default
filters array Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. Yes
key string Clé à comparer à la valeur. Yes
type enum Type d’opération : and ou or.
Valeurs possibles : and, or
Yes
value chaîne ou nombre ou booléen Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. Yes

OpenAI.FineTuneDPOHyperparameters

Hyperparamètres utilisés pour le travail d’optimisation de l’objet de stratégie de domaine.

Name Type Description Required Default
batch_size enum
Valeurs possibles : auto
No
beta enum
Valeurs possibles : auto
No
learning_rate_multiplier enum
Valeurs possibles : auto
No
n_epochs enum
Valeurs possibles : auto
No

OpenAI.FineTuneDPOMethod

Configuration de la méthode d’optimisation de l’objet de stratégie de domaine.

Name Type Description Required Default
hyperparameters OpenAI.FineTuneDPOHyperparameters Hyperparamètres utilisés pour le travail d’optimisation de l’objet de stratégie de domaine. No

OpenAI.FineTuneMethod

Méthode utilisée pour le réglage précis.

Name Type Description Required Default
dpo OpenAI.FineTuneDPOMethod Configuration de la méthode d’optimisation de l’objet de stratégie de domaine. No
reinforcement AzureFineTuneReinforcementMethod No
supervised OpenAI.FineTuneSupervisedMethod Configuration de la méthode de réglage affiné supervisée. No
type enum Type de méthode. Est soit supervised, dpoou reinforcement.
Valeurs possibles : supervised, , dporeinforcement
Yes

OpenAI.FineTuneReinforcementHyperparameters

Les hyperparamètres utilisés pour le travail de réglage précis du renforcement.

Name Type Description Required Default
batch_size enum
Valeurs possibles : auto
No
compute_multiplier enum
Valeurs possibles : auto
No
eval_interval enum
Valeurs possibles : auto
No
eval_samples enum
Valeurs possibles : auto
No
learning_rate_multiplier enum
Valeurs possibles : auto
No
n_epochs enum
Valeurs possibles : auto
No
reasoning_effort enum Niveau d’effort de raisonnement.
Valeurs possibles : default, , lowmedium,high
No

OpenAI.FineTuneSupervisedHyperparameters

Hyperparamètres utilisés pour le travail de réglage précis.

Name Type Description Required Default
batch_size enum
Valeurs possibles : auto
No
learning_rate_multiplier enum
Valeurs possibles : auto
No
n_epochs enum
Valeurs possibles : auto
No

OpenAI.FineTuneSupervisedMethod

Configuration de la méthode de réglage affiné supervisée.

Name Type Description Required Default
hyperparameters OpenAI.FineTuneSupervisedHyperparameters Hyperparamètres utilisés pour le travail de réglage précis. No

OpenAI.FineTuningIntegration

Discriminateur pour OpenAI.FineTuningIntegration

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
wandb OpenAI.FineTuningIntegrationWandb
Name Type Description Required Default
type chaîne (voir les modèles valides ci-dessous) Yes

OpenAI.FineTuningIntegrationWandb

Name Type Description Required Default
type enum Type de l’intégration activée pour le travail de réglage précis.
Valeurs possibles : wandb
Yes
wandb object Paramètres de votre intégration à Weights and Biases. Cette charge utile spécifie le projet auquel les métriques seront envoyées. Si vous le souhaitez, vous pouvez définir un nom complet explicite pour votre exécution, ajouter des balises à votre exécution et définir une entité par défaut (équipe, nom d’utilisateur, etc.) à associer à votre exécution. Yes
└─ entity string Entité à utiliser pour l’exécution. Cela vous permet de définir l’équipe ou le nom d’utilisateur de l’utilisateur WandB que vous souhaitez associer à l’exécution. Si elle n’est pas définie, l’entité par défaut de la clé API WandB inscrite est utilisée. No
└─ name string Nom complet à définir pour l’exécution. Si ce n’est pas le cas, nous allons utiliser l’ID de travail comme nom. No
└─ project string Nom du projet sous lequel la nouvelle exécution sera créée. No
└─ tags array Liste des balises à joindre à l’exécution nouvellement créée. Ces balises sont transmises directement à WandB. Certaines balises par défaut sont générées par OpenAI : « openai/finetune », « openai/{base-model} », « openai/{ftjob-abcdef} ». No

OpenAI.FineTuningJob

L’objet fine_tuning.job représente un travail de réglage précis qui a été créé via l’API.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. Yes
error object Pour les travaux de réglage précis qui ont failed, cela contiendra plus d’informations sur la cause de l’échec. Yes
└─ code string Code d’erreur lisible par l’ordinateur. No
└─ message string Message d’erreur lisible par l’homme. No
└─ param string Paramètre non valide, généralement training_file ou validation_file. Ce champ est null si l’échec n’était pas spécifique au paramètre. No
estimated_finish integer Horodatage Unix (en secondes) lorsque le travail de réglage précis est estimé à se terminer. La valeur est null si le travail de réglage précis n’est pas en cours d’exécution. No
fine_tuned_model string Nom du modèle affiné en cours de création. La valeur est null si le travail de réglage précis est toujours en cours d’exécution. Yes
finished_at integer Horodatage Unix (en secondes) pour le moment où le travail de réglage a été terminé. La valeur est null si le travail de réglage précis est toujours en cours d’exécution. Yes
hyperparameters object Hyperparamètres utilisés pour le travail de réglage précis. Cette valeur est retournée uniquement lors de l’exécution supervised de travaux. Yes
└─ batch_size enum
Valeurs possibles : auto
No
└─ learning_rate_multiplier enum
Valeurs possibles : auto
No
└─ n_epochs enum
Valeurs possibles : auto
No
id string Identificateur d’objet, qui peut être référencé dans les points de terminaison d’API. Yes
integrations array Liste des intégrations à activer pour ce travail d’optimisation. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
method OpenAI.FineTuneMethod Méthode utilisée pour le réglage précis. No
model string Modèle de base en cours d’optimisation. Yes
object enum Type d’objet, qui est toujours « fine_tuning.job ».
Valeurs possibles : fine_tuning.job
Yes
organization_id string Organisation propriétaire du travail d’optimisation. Yes
result_files array ID(s) du ou des fichiers de résultats compilés pour le travail de réglage précis. Vous pouvez récupérer les résultats avec l’API Files. Yes
seed integer Valeur initiale utilisée pour le travail de réglage précis. Yes
status enum État actuel du travail de réglage précis, qui peut être validating_filessoit , queued, running, , succeeded, , failedou cancelled.
Valeurs possibles : validating_files, , queuedrunning, succeeded, failedcancelled
Yes
trained_tokens integer Nombre total de jetons facturables traités par ce travail de réglage précis. La valeur est null si le travail de réglage précis est toujours en cours d’exécution. Yes
training_file string ID de fichier utilisé pour l’entraînement. Vous pouvez récupérer les données d’apprentissage avec l’API Files. Yes
user_provided_suffix string Suffixe descriptif appliqué au travail, tel que spécifié dans la demande de création de travaux. No
validation_file string ID de fichier utilisé pour la validation. Vous pouvez récupérer les résultats de validation avec l’API Files. Yes

OpenAI.FineTuningJobCheckpoint

L’objet fine_tuning.job.checkpoint représente un point de contrôle de modèle pour un travail de réglage précis prêt à être utilisé.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le point de contrôle a été créé. Yes
fine_tuned_model_checkpoint string Nom du modèle de point de contrôle affiné créé. Yes
fine_tuning_job_id string Nom du travail de réglage précis à partir duquel ce point de contrôle a été créé. Yes
id string Identificateur de point de contrôle, qui peut être référencé dans les points de terminaison d’API. Yes
metrics object Métriques au numéro d’étape pendant le travail de réglage précis. Yes
└─ full_valid_loss number No
└─ full_valid_mean_token_accuracy number No
└─ step number No
└─ train_loss number No
└─ train_mean_token_accuracy number No
└─ valid_loss number No
└─ valid_mean_token_accuracy number No
object enum Type d’objet, qui est toujours « fine_tuning.job.checkpoint ».
Valeurs possibles : fine_tuning.job.checkpoint
Yes
step_number integer Numéro d’étape auquel le point de contrôle a été créé. Yes

OpenAI.FineTuningJobEvent

Objet d’événement de travail de réglage précis

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. Yes
data Données associées à l’événement. No
id string Identificateur d’objet. Yes
level enum Niveau de journal de l’événement.
Valeurs possibles : info, , warnerror
Yes
message string Message de l’événement. Yes
object enum Type d’objet, qui est toujours « fine_tuning.job.event ».
Valeurs possibles : fine_tuning.job.event
Yes
type enum Type d’événement.
Valeurs possibles : message, metrics
No

OpenAI.FunctionObject

Name Type Description Required Default
description string Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
parameters Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. No
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le parameters champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. No False

OpenAI.FunctionTool

Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.

Name Type Description Required Default
description string Description de la fonction. Utilisé par le modèle pour déterminer s’il faut ou non appeler la fonction. No
name string Nom de la fonction à appeler. Yes
parameters Objet de schéma JSON décrivant les paramètres de la fonction. Yes
strict boolean Indique s’il faut appliquer une validation stricte des paramètres. Valeur par défaut true. Yes
type enum Type de l’outil de fonction. Toujours function.
Valeurs possibles : function
Yes

OpenAI.FunctionToolCallItemParam

Un appel d’outil pour exécuter une fonction.

Name Type Description Required Default
arguments string Chaîne JSON des arguments à passer à la fonction. Yes
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle. Yes
name string Nom de la fonction à exécuter. Yes
type enum
Valeurs possibles : function_call
Yes

OpenAI.FunctionToolCallItemResource

Un appel d’outil pour exécuter une fonction.

Name Type Description Required Default
arguments string Chaîne JSON des arguments à passer à la fonction. Yes
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle. Yes
name string Nom de la fonction à exécuter. Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum
Valeurs possibles : function_call
Yes

OpenAI.FunctionToolCallOutputItemParam

Sortie d’un appel d’outil de fonction.

Name Type Description Required Default
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle. Yes
output string Chaîne JSON de la sortie de l’appel de l’outil de fonction. Yes
type enum
Valeurs possibles : function_call_output
Yes

OpenAI.FunctionToolCallOutputItemResource

Sortie d’un appel d’outil de fonction.

Name Type Description Required Default
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle. Yes
output string Chaîne JSON de la sortie de l’appel de l’outil de fonction. Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum
Valeurs possibles : function_call_output
Yes

OpenAI.Grader

Discriminateur pour OpenAI.Grader

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
label_model OpenAI.GraderLabelModel
text_similarity OpenAI.GraderTextSimilarity
python OpenAI.GraderPython
score_model OpenAI.GraderScoreModel
multi OpenAI.GraderMulti
Name Type Description Required Default
type OpenAI.GraderType Yes

OpenAI.GraderLabelModel

Objet LabelModelGrader qui utilise un modèle pour affecter des étiquettes à chaque élément de l’évaluation.

Name Type Description Required Default
input array Yes
labels array Étiquettes à affecter à chaque élément de l’évaluation. Yes
model string Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. Yes
name string Nom du classateur. Yes
passing_labels array Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. Yes
type enum Type d’objet, qui est toujours label_model.
Valeurs possibles : label_model
Yes

OpenAI.GraderMulti

Un objet MultiGrader combine la sortie de plusieurs classateurs pour produire un score unique.

Name Type Description Required Default
calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. Yes
graders object Yes
name string Nom du classateur. Yes
type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
Yes

OpenAI.GraderPython

Objet PythonGrader qui exécute un script Python sur l’entrée.

Name Type Description Required Default
image_tag string Balise d’image à utiliser pour le script Python. No
name string Nom du classateur. Yes
source string Code source du script Python. Yes
type enum Type d’objet, qui est toujours python.
Valeurs possibles : python
Yes

OpenAI.GraderScoreModel

Objet ScoreModelGrader qui utilise un modèle pour affecter un score à l’entrée.

Name Type Description Required Default
input array Texte d’entrée. Cela peut inclure des chaînes de modèle. Yes
model string Modèle à utiliser pour l’évaluation. Yes
name string Nom du classateur. Yes
range array Plage du score. La valeur par défaut est [0, 1]. No
sampling_params Paramètres d’échantillonnage du modèle. No
type enum Type d’objet, qui est toujours score_model.
Valeurs possibles : score_model
Yes

OpenAI.GraderStringCheck

Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée.

Name Type Description Required Default
input string Texte d’entrée. Cela peut inclure des chaînes de modèle. Yes
name string Nom du classateur. Yes
operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
Yes
reference string Texte de référence. Cela peut inclure des chaînes de modèle. Yes
type enum Type d’objet, qui est toujours string_check.
Valeurs possibles : string_check
Yes

OpenAI.GraderTextSimilarity

Objet TextSimilarityGrader qui classe le texte en fonction des métriques de similarité.

Name Type Description Required Default
evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
Yes
input string Texte classé. Yes
name string Nom du classateur. Yes
reference string Texte en cours de classement. Yes
type enum Type de nuanceur.
Valeurs possibles : text_similarity
Yes

OpenAI.GraderType

Property Value
Type string
Values string_check
text_similarity
score_model
label_model
python
multi

OpenAI.ImageGenTool

Outil qui génère des images à l’aide d’un modèle comme gpt-image-1.5.

Name Type Description Required Default
background enum GPT-image-1 uniquement : type d’arrière-plan pour l’image générée. Un des transparent, opaqueou auto. Valeur par défaut : auto.
Valeurs possibles : transparent, , opaqueauto
No
input_image_mask object Masque facultatif pour l’inpainting. Contient image_url (chaîne, facultatif) et file_id (chaîne, facultatif). No
└─ file_id string ID de fichier de l’image de masque. No
└─ image_url string Image de masque encodée en base64. No
model enum Modèle de génération d’image à utiliser. Valeur par défaut : gpt-image-1.
Valeurs possibles : gpt-image-1, , gpt-image-1.5gpt-image-2
No
moderation enum Niveau de modération de l’image générée. Valeur par défaut : auto.
Valeurs possibles : auto, low
No
output_compression integer Niveau de compression de l’image de sortie. Default: 100. No 100
output_format enum Format de sortie de l’image générée. Un des png, webpou jpeg. Valeur par défaut : png.
Valeurs possibles : png, , webpjpeg
No
partial_images integer Nombre d’images partielles à générer en mode streaming, de 0 (valeur par défaut) à 3. No 0
quality enum Qualité de l’image générée. Un des low, , medium, highou auto. Valeur par défaut : auto.
Valeurs possibles : low, , mediumhigh,auto
No
size enum Taille de l’image générée. Un des 1024x1024, , 1024x1536, 1536x1024ou auto. Valeur par défaut : auto.
Valeurs possibles : 1024x1024, , 1024x15361536x1024,auto
No
type enum Type de l’outil de génération d’images. Toujours image_generation.
Valeurs possibles : image_generation
Yes

OpenAI.ImageGenToolCallItemParam

Demande de génération d’image effectuée par le modèle.

Name Type Description Required Default
result string Image générée encodée en base64. Yes
type enum
Valeurs possibles : image_generation_call
Yes

OpenAI.ImageGenToolCallItemResource

Demande de génération d’image effectuée par le modèle.

Name Type Description Required Default
result string Image générée encodée en base64. Yes
status enum
Valeurs possibles : in_progress, , completedgenerating,failed
Yes
type enum
Valeurs possibles : image_generation_call
Yes

OpenAI.ImplicitUserMessage

Name Type Description Required Default
content chaîne ou tableau Yes

OpenAI.Includable

Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :

  • code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
  • computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
  • file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
  • message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
  • message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.
  • reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro).
Property Value
Description Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
- code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.
- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
- message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.
- reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro).
Type string
Values code_interpreter_call.outputs
computer_call_output.output.image_url
file_search_call.results
message.input_image.image_url
message.output_text.logprobs
reasoning.encrypted_content

OpenAI.ItemContent

Discriminateur pour OpenAI.ItemContent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
input_audio OpenAI.ItemContentInputAudio
output_audio OpenAI.ItemContentOutputAudio
refusal OpenAI.ItemContentRefusal
input_text OpenAI.ItemContentInputText
input_image OpenAI.ItemContentInputImage
input_file OpenAI.ItemContentInputFile
output_text OpenAI.ItemContentOutputText
Name Type Description Required Default
type OpenAI.ItemContentType Contenu d’entrée et de sortie multimodaux. Yes

OpenAI.ItemContentInputAudio

Entrée audio au modèle.

Name Type Description Required Default
data string Données audio encodées en base64. Yes
format enum Format des données audio. Actuellement, les formats pris en charge sont mp3 et wav.
Valeurs possibles : mp3, wav
Yes
type enum Type de l’élément d’entrée. Toujours input_audio.
Valeurs possibles : input_audio
Yes

OpenAI.ItemContentInputFile

Entrée de fichier dans le modèle.

Name Type Description Required Default
file_data string Contenu du fichier à envoyer au modèle. No
file_id string ID du fichier à envoyer au modèle. No
filename string Nom du fichier à envoyer au modèle. No
type enum Type de l’élément d’entrée. Toujours input_file.
Valeurs possibles : input_file
Yes

OpenAI.ItemContentInputImage

Entrée d’image dans le modèle.

Name Type Description Required Default
detail enum Niveau de détail de l’image à envoyer au modèle. Un des high, lowou auto. La valeur par défaut est auto.
Valeurs possibles : low, , highauto
No
file_id string ID du fichier à envoyer au modèle. No
image_url string URL de l’image à envoyer au modèle. Une URL complète ou une image encodée en base64 dans une URL de données. No
type enum Type de l’élément d’entrée. Toujours input_image.
Valeurs possibles : input_image
Yes

OpenAI.ItemContentInputText

Entrée de texte dans le modèle.

Name Type Description Required Default
text string Entrée de texte dans le modèle. Yes
type enum Type de l’élément d’entrée. Toujours input_text.
Valeurs possibles : input_text
Yes

OpenAI.ItemContentOutputAudio

Sortie audio du modèle.

Name Type Description Required Default
data string Données audio encodées en base64 à partir du modèle. Yes
transcript string Transcription des données audio du modèle. Yes
type enum Type de l’audio de sortie. Toujours output_audio.
Valeurs possibles : output_audio
Yes

OpenAI.ItemContentOutputText

Sortie de texte du modèle.

Name Type Description Required Default
annotations array Annotations de la sortie de texte. Yes
logprobs array No
text string Sortie de texte du modèle. Yes
type enum Type du texte de sortie. Toujours output_text.
Valeurs possibles : output_text
Yes

OpenAI.ItemContentRefusal

Refus du modèle.

Name Type Description Required Default
refusal string Explication du refus du modèle. Yes
type enum Type de refus. Toujours refusal.
Valeurs possibles : refusal
Yes

OpenAI.ItemContentType

Contenu d’entrée et de sortie multimodaux.

Property Value
Description Contenu d’entrée et de sortie multimodaux.
Type string
Values input_text
input_audio
input_image
input_file
output_text
output_audio
refusal

OpenAI.ItemParam

Élément de contenu utilisé pour générer une réponse.

Discriminateur pour OpenAI.ItemParam

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
file_search_call OpenAI.FileSearchToolCallItemParam
computer_call OpenAI.ComputerToolCallItemParam
computer_call_output OpenAI.ComputerToolCallOutputItemParam
web_search_call OpenAI.WebSearchToolCallItemParam
function_call OpenAI.FunctionToolCallItemParam
function_call_output OpenAI.FunctionToolCallOutputItemParam
reasoning OpenAI.ReasoningItemParam
item_reference OpenAI.ItemReferenceItemParam
image_generation_call OpenAI.ImageGenToolCallItemParam
code_interpreter_call OpenAI.CodeInterpreterToolCallItemParam
local_shell_call OpenAI.LocalShellToolCallItemParam
local_shell_call_output OpenAI.LocalShellToolCallOutputItemParam
mcp_list_tools OpenAI.MCPListToolsItemParam
mcp_approval_request OpenAI.MCPApprovalRequestItemParam
mcp_approval_response OpenAI.MCPApprovalResponseItemParam
mcp_call OpenAI.MCPCallItemParam
message OpenAI.ResponsesMessageItemParam
Name Type Description Required Default
type OpenAI.ItemType Yes

OpenAI.ItemReferenceItemParam

Identificateur interne d’un élément à référencer.

Name Type Description Required Default
id string ID du service de l’élément de réponse généré précédemment référencé. Yes
type enum
Valeurs possibles : item_reference
Yes

OpenAI.ItemResource

Élément de contenu utilisé pour générer une réponse.

Discriminateur pour OpenAI.ItemResource

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
file_search_call OpenAI.FileSearchToolCallItemResource
computer_call OpenAI.ComputerToolCallItemResource
computer_call_output OpenAI.ComputerToolCallOutputItemResource
web_search_call OpenAI.WebSearchToolCallItemResource
function_call OpenAI.FunctionToolCallItemResource
function_call_output OpenAI.FunctionToolCallOutputItemResource
reasoning OpenAI.ReasoningItemResource
image_generation_call OpenAI.ImageGenToolCallItemResource
code_interpreter_call OpenAI.CodeInterpreterToolCallItemResource
local_shell_call OpenAI.LocalShellToolCallItemResource
local_shell_call_output OpenAI.LocalShellToolCallOutputItemResource
mcp_list_tools OpenAI.MCPListToolsItemResource
mcp_approval_request OpenAI.MCPApprovalRequestItemResource
mcp_approval_response OpenAI.MCPApprovalResponseItemResource
mcp_call OpenAI.MCPCallItemResource
message OpenAI.ResponsesMessageItemResource
Name Type Description Required Default
id string Yes
type OpenAI.ItemType Yes

OpenAI.ItemType

Property Value
Type string
Values message
file_search_call
function_call
function_call_output
computer_call
computer_call_output
web_search_call
reasoning
item_reference
image_generation_call
code_interpreter_call
local_shell_call
local_shell_call_output
mcp_list_tools
mcp_approval_request
mcp_approval_response
mcp_call

OpenAI.ListFineTuningJobCheckpointsResponse

Name Type Description Required Default
data array Yes
first_id string No
has_more boolean Yes
last_id string No
object enum
Valeurs possibles : list
Yes

OpenAI.ListFineTuningJobEventsResponse

Name Type Description Required Default
data array Yes
has_more boolean Yes
object enum
Valeurs possibles : list
Yes

OpenAI.ListModelsResponse

Name Type Description Required Default
data array Yes
object enum
Valeurs possibles : list
Yes

OpenAI.ListPaginatedFineTuningJobsResponse

Name Type Description Required Default
data array Yes
has_more boolean Yes
object enum
Valeurs possibles : list
Yes

OpenAI.ListVectorStoreFilesFilter

Property Value
Type string
Values in_progress
completed
failed
cancelled

OpenAI.ListVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object enum
Valeurs possibles : list
Yes

OpenAI.ListVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object enum
Valeurs possibles : list
Yes

OpenAI.LocalShellExecAction

Exécutez une commande shell sur le serveur.

Name Type Description Required Default
command array Commande à exécuter. Yes
env object Variables d’environnement à définir pour la commande. Yes
timeout_ms integer Délai d’expiration facultatif en millisecondes pour la commande. No
type enum Type de l’action de l’interpréteur de commandes local. Toujours exec.
Valeurs possibles : exec
Yes
user string Utilisateur facultatif pour exécuter la commande en tant que. No
working_directory string Répertoire de travail facultatif dans lequel exécuter la commande. No

OpenAI.LocalShellTool

Outil qui permet au modèle d’exécuter des commandes shell dans un environnement local.

Name Type Description Required Default
type enum Type de l’outil shell local. Toujours local_shell.
Valeurs possibles : local_shell
Yes

OpenAI.LocalShellToolCallItemParam

Un appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.

Name Type Description Required Default
action OpenAI.LocalShellExecAction Exécutez une commande shell sur le serveur. Yes
call_id string ID unique de l’appel de l’outil shell local généré par le modèle. Yes
type enum
Valeurs possibles : local_shell_call
Yes

OpenAI.LocalShellToolCallItemResource

Un appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.

Name Type Description Required Default
action OpenAI.LocalShellExecAction Exécutez une commande shell sur le serveur. Yes
call_id string ID unique de l’appel de l’outil shell local généré par le modèle. Yes
status enum
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum
Valeurs possibles : local_shell_call
Yes

OpenAI.LocalShellToolCallOutputItemParam

Sortie d’un appel d’outil shell local.

Name Type Description Required Default
output string Chaîne JSON de la sortie de l’appel de l’outil shell local. Yes
type enum
Valeurs possibles : local_shell_call_output
Yes

OpenAI.LocalShellToolCallOutputItemResource

Sortie d’un appel d’outil shell local.

Name Type Description Required Default
output string Chaîne JSON de la sortie de l’appel de l’outil shell local. Yes
status enum
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum
Valeurs possibles : local_shell_call_output
Yes

OpenAI.Location

Discriminateur pour OpenAI.Location

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
approximate OpenAI.ApproximateLocation
Name Type Description Required Default
type OpenAI.LocationType Yes

OpenAI.LocationType

Property Value
Type string
Values approximate

OpenAI.LogProb

Probabilité du journal d’un jeton.

Name Type Description Required Default
bytes array Yes
logprob number Yes
token string Yes
top_logprobs array Yes

OpenAI.MCPApprovalRequestItemParam

Demande d’approbation humaine d’un appel d’outil.

Name Type Description Required Default
arguments string Chaîne JSON d’arguments pour l’outil. Yes
name string Nom de l’outil à exécuter. Yes
server_label string Étiquette du serveur MCP effectuant la requête. Yes
type enum
Valeurs possibles : mcp_approval_request
Yes

OpenAI.MCPApprovalRequestItemResource

Demande d’approbation humaine d’un appel d’outil.

Name Type Description Required Default
arguments string Chaîne JSON d’arguments pour l’outil. Yes
name string Nom de l’outil à exécuter. Yes
server_label string Étiquette du serveur MCP effectuant la requête. Yes
type enum
Valeurs possibles : mcp_approval_request
Yes

OpenAI.MCPApprovalResponseItemParam

Réponse à une demande d’approbation MCP.

Name Type Description Required Default
approval_request_id string ID de la demande d’approbation en cours de réponse. Yes
approve boolean Indique si la demande a été approuvée. Yes
reason string Motif facultatif de la décision. No
type enum
Valeurs possibles : mcp_approval_response
Yes

OpenAI.MCPApprovalResponseItemResource

Réponse à une demande d’approbation MCP.

Name Type Description Required Default
approval_request_id string ID de la demande d’approbation en cours de réponse. Yes
approve boolean Indique si la demande a été approuvée. Yes
reason string Motif facultatif de la décision. No
type enum
Valeurs possibles : mcp_approval_response
Yes

OpenAI.MCPCallItemParam

Appel d’un outil sur un serveur MCP.

Name Type Description Required Default
arguments string Chaîne JSON des arguments passés à l’outil. Yes
error string Erreur de l’appel de l’outil, le cas échéant. No
name string Nom de l’outil qui a été exécuté. Yes
output string Sortie de l’appel d’outil. No
server_label string Étiquette du serveur MCP exécutant l’outil. Yes
type enum
Valeurs possibles : mcp_call
Yes

OpenAI.MCPCallItemResource

Appel d’un outil sur un serveur MCP.

Name Type Description Required Default
arguments string Chaîne JSON des arguments passés à l’outil. Yes
error string Erreur de l’appel de l’outil, le cas échéant. No
name string Nom de l’outil qui a été exécuté. Yes
output string Sortie de l’appel d’outil. No
server_label string Étiquette du serveur MCP exécutant l’outil. Yes
type enum
Valeurs possibles : mcp_call
Yes

OpenAI.MCPListToolsItemParam

Liste des outils disponibles sur un serveur MCP.

Name Type Description Required Default
error string Message d’erreur si le serveur n’a pas pu répertorier les outils. No
server_label string Étiquette du serveur MCP. Yes
tools array Outils disponibles sur le serveur. Yes
type enum
Valeurs possibles : mcp_list_tools
Yes

OpenAI.MCPListToolsItemResource

Liste des outils disponibles sur un serveur MCP.

Name Type Description Required Default
error string Message d’erreur si le serveur n’a pas pu répertorier les outils. No
server_label string Étiquette du serveur MCP. Yes
tools array Outils disponibles sur le serveur. Yes
type enum
Valeurs possibles : mcp_list_tools
Yes

OpenAI.MCPListToolsTool

Outil disponible sur un serveur MCP.

Name Type Description Required Default
annotations Annotations supplémentaires sur l’outil. No
description string Description de l’outil. No
input_schema Schéma JSON décrivant l’entrée de l’outil. Yes
name string Nom de l’outil. Yes

OpenAI.MCPTool

Donnez au modèle l’accès à des outils supplémentaires via des serveurs MCP (Remote Model Context Protocol).

Name Type Description Required Default
allowed_tools object No
└─ tool_names array Liste des noms d’outils autorisés. No
headers object En-têtes HTTP facultatifs à envoyer au serveur MCP. Utiliser à des fins d’authentification ou d’autres fins. No
require_approval objet (voir les modèles valides ci-dessous) Spécifiez les outils du serveur MCP qui nécessitent une approbation. No
server_label string Étiquette de ce serveur MCP, utilisée pour l’identifier dans les appels d’outils. Yes
server_url string URL du serveur MCP. Yes
type enum Type de l’outil MCP. Toujours mcp.
Valeurs possibles : mcp
Yes

OpenAI.MetadataPropertyForRequest

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No

OpenAI.Model

Décrit une offre de modèle OpenAI qui peut être utilisée avec l’API.

Name Type Description Required Default
created integer Horodatage Unix (en secondes) lors de la création du modèle. Yes
id string Identificateur de modèle, qui peut être référencé dans les points de terminaison d’API. Yes
object enum Type d’objet, qui est toujours « model ».
Valeurs possibles : model
Yes
owned_by string Organisation propriétaire du modèle. Yes

OpenAI.OtherChunkingStrategyResponseParam

Cette opération est retournée lorsque la stratégie de segmentation est inconnue. En règle générale, cela est dû au fait que le fichier a été indexé avant l’introduction du chunking_strategy concept dans l’API.

Name Type Description Required Default
type enum Toujours other.
Valeurs possibles : other
Yes

OpenAI.ParallelToolCalls

Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.

Type: boolean

OpenAI.Prompt

Référence à un modèle d’invite et à ses variables.

Name Type Description Required Default
id string Identificateur unique du modèle d’invite à utiliser. Yes
variables object Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. No
version string Version facultative du modèle d’invite. No

OpenAI.RankingOptions

Name Type Description Required Default
ranker enum Ranker à utiliser pour la recherche de fichiers.
Valeurs possibles : auto, default-2024-11-15
No
score_threshold number Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. No

OpenAI.Reasoning

Modèles de série o uniquement

Name Type Description Required Default
effort object Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
generate_summary enum Déconseillé : utilisez summary à la place.

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No

OpenAI.ReasoningEffort

Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.

Property Value
Description Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
Type string
Values low
medium
high

OpenAI.ReasoningItemParam

Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Veillez à inclure ces éléments dans votre input API Réponses pour les tours suivants d’une conversation si vous gérez manuellement le contexte.

Name Type Description Required Default
encrypted_content string Contenu chiffré de l’élément de raisonnement renseigné lorsqu’une réponse est générée reasoning.encrypted_content dans le include paramètre. No
summary array Contenu du texte de raisonnement. Yes
type enum
Valeurs possibles : reasoning
Yes

OpenAI.ReasoningItemResource

Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Veillez à inclure ces éléments dans votre input API Réponses pour les tours suivants d’une conversation si vous gérez manuellement le contexte.

Name Type Description Required Default
encrypted_content string Contenu chiffré de l’élément de raisonnement renseigné lorsqu’une réponse est générée reasoning.encrypted_content dans le include paramètre. No
summary array Contenu du texte de raisonnement. Yes
type enum
Valeurs possibles : reasoning
Yes

OpenAI.ReasoningItemSummaryPart

Discriminateur pour OpenAI.ReasoningItemSummaryPart

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
summary_text OpenAI.ReasoningItemSummaryTextPart
Name Type Description Required Default
type OpenAI.ReasoningItemSummaryPartType Yes

OpenAI.ReasoningItemSummaryPartType

Property Value
Type string
Values summary_text

OpenAI.ReasoningItemSummaryTextPart

Name Type Description Required Default
text string Yes
type enum
Valeurs possibles : summary_text
Yes

OpenAI.Response

Name Type Description Required Default
background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
created_at integer Horodatage Unix (en secondes) de la création de cette réponse. Yes
error object Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. Yes
└─ code OpenAI.ResponseErrorCode Code d’erreur de la réponse. No
└─ message string Description lisible par l’homme de l’erreur. No
id string Identificateur unique pour cette réponse. Yes
incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. Yes
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
instructions chaîne ou tableau Yes
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
Yes
output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
Yes
output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. Yes True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
prompt object Référence à un modèle d’invite et à ses variables. No
└─ id string Identificateur unique du modèle d’invite à utiliser. No
└─ variables OpenAI.ResponsePromptVariables Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. No
└─ version string Version facultative du modèle d’invite. No
reasoning object Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ effort OpenAI.ReasoningEffort Modèles de série o uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
No
└─ generate_summary enum Déconseillé : utilisez summary à la place.

Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
└─ summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
Un des auto, conciseou detailed.
Valeurs possibles : auto, , concisedetailed
No
status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
Yes
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
tool_choice object Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
No
└─ type OpenAI.ToolChoiceObjectType Indique que le modèle doit utiliser un outil intégré pour générer une réponse. No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
Yes
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. Yes

OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent

Émis lorsqu’un extrait de code partiel est diffusé en continu par l’interpréteur de code.

Name Type Description Required Default
delta string Extrait de code partiel diffusé par l’interpréteur de code. Yes
item_id string Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Yes
output_index integer Index de l’élément de sortie dans la réponse pour laquelle le code est en cours de diffusion en continu. Yes
type enum Type de l’événement. Toujours response.code_interpreter_call_code.delta.
Valeurs possibles : response.code_interpreter_call_code.delta
Yes

OpenAI.ResponseCodeInterpreterCallCodeDoneEvent

Émis lorsque l’extrait de code est finalisé par l’interpréteur de code.

Name Type Description Required Default
code string Sortie finale de l’extrait de code par l’interpréteur de code. Yes
item_id string Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Yes
output_index integer Index de l’élément de sortie dans la réponse pour laquelle le code est finalisé. Yes
type enum Type de l’événement. Toujours response.code_interpreter_call_code.done.
Valeurs possibles : response.code_interpreter_call_code.done
Yes

OpenAI.ResponseCodeInterpreterCallCompletedEvent

Émis lorsque l’appel de l’interpréteur de code est terminé.

Name Type Description Required Default
item_id string Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Yes
output_index integer Index de l’élément de sortie dans la réponse pour laquelle l’appel de l’interpréteur de code est terminé. Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.completed.
Valeurs possibles : response.code_interpreter_call.completed
Yes

OpenAI.ResponseCodeInterpreterCallInProgressEvent

Émis lorsqu’un appel d’interpréteur de code est en cours.

Name Type Description Required Default
item_id string Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Yes
output_index integer Index de l’élément de sortie dans la réponse pour laquelle l’appel de l’interpréteur de code est en cours. Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.in_progress.
Valeurs possibles : response.code_interpreter_call.in_progress
Yes

OpenAI.ResponseCodeInterpreterCallInterpretingEvent

Émis lorsque l’interpréteur de code interprète activement l’extrait de code.

Name Type Description Required Default
item_id string Identificateur unique de l’élément d’appel de l’outil interpréteur de code. Yes
output_index integer Index de l’élément de sortie dans la réponse pour laquelle l’interpréteur de code interprète le code. Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.interpreting.
Valeurs possibles : response.code_interpreter_call.interpreting
Yes

OpenAI.ResponseCompletedEvent

Émis lorsque la réponse du modèle est terminée.

Name Type Description Required Default
response object Yes
└─ background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
└─ created_at integer Horodatage Unix (en secondes) de la création de cette réponse. No
└─ error OpenAI.ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. No
└─ id string Identificateur unique pour cette réponse. No
└─ incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. No
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
└─ instructions chaîne ou tableau Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
└─ max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
└─ max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
No
└─ output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
No
└─ output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
└─ parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
└─ previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
└─ prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables. No
└─ reasoning OpenAI.Reasoning Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
└─ temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No
└─ text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. No
└─ tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
└─ top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
└─ top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No
└─ truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
└─ usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
└─ user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No
type enum Type de l’événement. Toujours response.completed.
Valeurs possibles : response.completed
Yes

OpenAI.ResponseContentPartAddedEvent

Émis lorsqu’un nouveau composant de contenu est ajouté.

Name Type Description Required Default
content_index integer Index de la partie de contenu qui a été ajoutée. Yes
item_id string ID de l’élément de sortie auquel la partie de contenu a été ajoutée. Yes
output_index integer Index de l’élément de sortie auquel la partie de contenu a été ajoutée. Yes
part object Yes
└─ type OpenAI.ItemContentType Contenu d’entrée et de sortie multimodaux. No
type enum Type de l’événement. Toujours response.content_part.added.
Valeurs possibles : response.content_part.added
Yes

OpenAI.ResponseContentPartDoneEvent

Émis lorsqu’un composant de contenu est terminé.

Name Type Description Required Default
content_index integer Index de la partie de contenu effectuée. Yes
item_id string ID de l’élément de sortie auquel la partie de contenu a été ajoutée. Yes
output_index integer Index de l’élément de sortie auquel la partie de contenu a été ajoutée. Yes
part object Yes
└─ type OpenAI.ItemContentType Contenu d’entrée et de sortie multimodaux. No
type enum Type de l’événement. Toujours response.content_part.done.
Valeurs possibles : response.content_part.done
Yes

OpenAI.ResponseCreatedEvent

Événement émis lors de la création d’une réponse.

Name Type Description Required Default
response object Yes
└─ background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
└─ created_at integer Horodatage Unix (en secondes) de la création de cette réponse. No
└─ error OpenAI.ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. No
└─ id string Identificateur unique pour cette réponse. No
└─ incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. No
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
└─ instructions chaîne ou tableau Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
└─ max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
└─ max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
No
└─ output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
No
└─ output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
└─ parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
└─ previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
└─ prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables. No
└─ reasoning OpenAI.Reasoning Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ status enum État de la génération de réponse. Un des completed, , failed
in_progress, cancelled, , queuedou incomplete.
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
└─ temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No
└─ text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. No
└─ tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
└─ top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
└─ top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No
└─ truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
└─ usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
└─ user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No
type enum Type de l’événement. Toujours response.created.
Valeurs possibles : response.created
Yes

OpenAI.ResponseError

Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.

Name Type Description Required Default
code OpenAI.ResponseErrorCode Code d’erreur de la réponse. Yes
message string Description lisible par l’homme de l’erreur. Yes

OpenAI.ResponseErrorCode

Code d’erreur de la réponse.

Property Value
Description Code d’erreur de la réponse.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

OpenAI.ResponseErrorEvent

Émis lorsqu’une erreur se produit.

Name Type Description Required Default
code string Code d’erreur. Yes
message string Message d’erreur. Yes
param string Paramètre d’erreur. Yes
type enum Type de l’événement. Toujours error.
Valeurs possibles : error
Yes

OpenAI.ResponseFailedEvent

Événement émis en cas d’échec d’une réponse.

Name Type Description Required Default
response object Yes
└─ background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
└─ created_at integer Horodatage Unix (en secondes) de la création de cette réponse. No
└─ error OpenAI.ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. No
└─ id string Identificateur unique pour cette réponse. No
└─ incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. No
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
└─ instructions chaîne ou tableau Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
└─ max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
└─ max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
No
└─ output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
No
└─ output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
└─ parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
└─ previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
└─ prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables. No
└─ reasoning OpenAI.Reasoning Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
└─ temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No
└─ text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. No
└─ tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
└─ top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
└─ top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No
└─ truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
└─ usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
└─ user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No
type enum Type de l’événement. Toujours response.failed.
Valeurs possibles : response.failed
Yes

OpenAI.ResponseFileSearchCallCompletedEvent

Émis lorsqu’un appel de recherche de fichiers est terminé (résultats trouvés).

Name Type Description Required Default
item_id string ID de l’élément de sortie lancé par l’appel de recherche de fichier. Yes
output_index integer Index de l’élément de sortie lancé par l’appel de recherche de fichier. Yes
type enum Type de l’événement. Toujours response.file_search_call.completed.
Valeurs possibles : response.file_search_call.completed
Yes

OpenAI.ResponseFileSearchCallInProgressEvent

Émis lorsqu’un appel de recherche de fichiers est lancé.

Name Type Description Required Default
item_id string ID de l’élément de sortie lancé par l’appel de recherche de fichier. Yes
output_index integer Index de l’élément de sortie lancé par l’appel de recherche de fichier. Yes
type enum Type de l’événement. Toujours response.file_search_call.in_progress.
Valeurs possibles : response.file_search_call.in_progress
Yes

OpenAI.ResponseFileSearchCallSearchingEvent

Émis lorsqu’une recherche de fichier effectue actuellement une recherche.

Name Type Description Required Default
item_id string ID de l’élément de sortie lancé par l’appel de recherche de fichier. Yes
output_index integer Index de l’élément de sortie que l’appel de recherche de fichier effectue une recherche. Yes
type enum Type de l’événement. Toujours response.file_search_call.searching.
Valeurs possibles : response.file_search_call.searching
Yes

OpenAI.ResponseFormat

Discriminateur pour OpenAI.ResponseFormat

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
text OpenAI.ResponseFormatText
json_object OpenAI.ResponseFormatJsonObject
json_schema OpenAI.ResponseFormatJsonSchema
Name Type Description Required Default
type enum
Valeurs possibles : text, , json_objectjson_schema
Yes

OpenAI.ResponseFormatJsonObject

Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.

Name Type Description Required Default
type enum Type de format de réponse défini. Toujours json_object.
Valeurs possibles : json_object
Yes

OpenAI.ResponseFormatJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées.

Name Type Description Required Default
json_schema object Options de configuration des sorties structurées, y compris un schéma JSON. Yes
└─ description string Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. No
└─ name string Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. No
└─ schema OpenAI.ResponseFormatJsonSchemaSchema Schéma pour le format de réponse, décrit en tant qu’objet json Schema.
Découvrez comment créer des schémas JSON ici.
No
└─ strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie.
Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true.
No False
type enum Type de format de réponse défini. Toujours json_schema.
Valeurs possibles : json_schema
Yes

OpenAI.ResponseFormatJsonSchemaSchema

Schéma pour le format de réponse, décrit en tant qu’objet json Schema. Découvrez comment créer des schémas JSON ici.

Type: object

OpenAI.ResponseFormatText

Format de réponse par défaut. Utilisé pour générer des réponses de texte.

Name Type Description Required Default
type enum Type de format de réponse défini. Toujours text.
Valeurs possibles : text
Yes

OpenAI.ResponseFunctionCallArgumentsDeltaEvent

Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.

Name Type Description Required Default
delta string Delta des arguments d’appel de fonction ajoutés. Yes
item_id string ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. Yes
output_index integer Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. Yes
type enum Type de l’événement. Toujours response.function_call_arguments.delta.
Valeurs possibles : response.function_call_arguments.delta
Yes

OpenAI.ResponseFunctionCallArgumentsDoneEvent

Émis lorsque des arguments d’appel de fonction sont finalisés.

Name Type Description Required Default
arguments string Arguments d’appel de fonction. Yes
item_id string ID de l’élément. Yes
output_index integer Index de l’élément de sortie. Yes
type enum
Valeurs possibles : response.function_call_arguments.done
Yes

OpenAI.ResponseImageGenCallCompletedEvent

Émis lorsqu’un appel d’outil de génération d’images est terminé et que l’image finale est disponible.

Name Type Description Required Default
item_id string Identificateur unique de l’élément de génération d’image en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.image_generation_call.completed'.
Valeurs possibles : response.image_generation_call.completed
Yes

OpenAI.ResponseImageGenCallGeneratingEvent

Émis lorsqu’un appel d’outil de génération d’images génère activement une image (état intermédiaire).

Name Type Description Required Default
item_id string Identificateur unique de l’élément de génération d’image en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.image_generation_call.generating'.
Valeurs possibles : response.image_generation_call.generating
Yes

OpenAI.ResponseImageGenCallInProgressEvent

Émis lorsqu’un appel d’outil de génération d’images est en cours.

Name Type Description Required Default
item_id string Identificateur unique de l’élément de génération d’image en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.image_generation_call.in_progress'.
Valeurs possibles : response.image_generation_call.in_progress
Yes

OpenAI.ResponseImageGenCallPartialImageEvent

Émis lorsqu’une image partielle est disponible pendant la diffusion en continu de génération d’images.

Name Type Description Required Default
item_id string Identificateur unique de l’élément de génération d’image en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
partial_image_b64 string Données d’image partielle encodées en base64, adaptées au rendu en tant qu’image. Yes
partial_image_index integer Index de base 0 pour l’image partielle (le back-end est basé sur 1, mais il s’agit de 0 pour l’utilisateur). Yes
type enum Type de l’événement. Always 'response.image_generation_call.partial_image'.
Valeurs possibles : response.image_generation_call.partial_image
Yes

OpenAI.ResponseInProgressEvent

Émis lorsque la réponse est en cours.

Name Type Description Required Default
response object Yes
└─ background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
└─ created_at integer Horodatage Unix (en secondes) de la création de cette réponse. No
└─ error OpenAI.ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. No
└─ id string Identificateur unique pour cette réponse. No
└─ incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. No
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
└─ instructions chaîne ou tableau Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
└─ max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
└─ max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
No
└─ output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
No
└─ output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
└─ parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
└─ previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
└─ prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables. No
└─ reasoning OpenAI.Reasoning Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
└─ temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No
└─ text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. No
└─ tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
└─ top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
└─ top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No
└─ truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
└─ usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
└─ user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No
type enum Type de l’événement. Toujours response.in_progress.
Valeurs possibles : response.in_progress
Yes

OpenAI.ResponseIncompleteEvent

Événement émis lorsqu’une réponse se termine comme incomplète.

Name Type Description Required Default
response object Yes
└─ background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
└─ created_at integer Horodatage Unix (en secondes) de la création de cette réponse. No
└─ error OpenAI.ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. No
└─ id string Identificateur unique pour cette réponse. No
└─ incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. No
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
└─ instructions chaîne ou tableau Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
└─ max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
└─ max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
No
└─ output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
No
└─ output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
└─ parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
└─ previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
└─ prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables. No
└─ reasoning OpenAI.Reasoning Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
└─ temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No
└─ text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. No
└─ tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
└─ top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
└─ top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No
└─ truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
└─ usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
└─ user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No
type enum Type de l’événement. Toujours response.incomplete.
Valeurs possibles : response.incomplete
Yes

OpenAI.ResponseItemList

Liste des éléments de réponse.

Name Type Description Required Default
data array Liste des éléments utilisés pour générer cette réponse. Yes
first_id string ID du premier élément de la liste. Yes
has_more boolean Indique s’il existe d’autres éléments disponibles. Yes
last_id string ID du dernier élément de la liste. Yes
object enum Le type d’objet retourné doit être list.
Valeurs possibles : list
Yes

OpenAI.ResponseMCPCallArgumentsDeltaEvent

Émis lorsqu’il existe un delta (mise à jour partielle) aux arguments d’un appel d’outil MCP.

Name Type Description Required Default
delta Mise à jour partielle des arguments de l’appel de l’outil MCP. Yes
item_id string Identificateur unique de l’élément d’appel de l’outil MCP en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.mcp_call.arguments_delta'.
Valeurs possibles : response.mcp_call.arguments_delta
Yes

OpenAI.ResponseMCPCallArgumentsDoneEvent

Émis lorsque les arguments d’un appel d’outil MCP sont finalisés.

Name Type Description Required Default
arguments Arguments finalisés pour l’appel de l’outil MCP. Yes
item_id string Identificateur unique de l’élément d’appel de l’outil MCP en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.mcp_call.arguments_done'.
Valeurs possibles : response.mcp_call.arguments_done
Yes

OpenAI.ResponseMCPCallCompletedEvent

Émis lorsqu’un appel d’outil MCP s’est terminé avec succès.

Name Type Description Required Default
type enum Type de l’événement. Always 'response.mcp_call.completed'.
Valeurs possibles : response.mcp_call.completed
Yes

OpenAI.ResponseMCPCallFailedEvent

Émis lorsqu’un appel d’outil MCP a échoué.

Name Type Description Required Default
type enum Type de l’événement. Always 'response.mcp_call.failed'.
Valeurs possibles : response.mcp_call.failed
Yes

OpenAI.ResponseMCPCallInProgressEvent

Émis lorsqu’un appel d’outil MCP est en cours.

Name Type Description Required Default
item_id string Identificateur unique de l’élément d’appel de l’outil MCP en cours de traitement. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.mcp_call.in_progress'.
Valeurs possibles : response.mcp_call.in_progress
Yes

OpenAI.ResponseMCPListToolsCompletedEvent

Émis lorsque la liste des outils MCP disponibles a été récupérée avec succès.

Name Type Description Required Default
type enum Type de l’événement. Always 'response.mcp_list_tools.completed'.
Valeurs possibles : response.mcp_list_tools.completed
Yes

OpenAI.ResponseMCPListToolsFailedEvent

Émis lorsque la tentative de liste des outils MCP disponibles a échoué.

Name Type Description Required Default
type enum Type de l’événement. Always 'response.mcp_list_tools.failed'.
Valeurs possibles : response.mcp_list_tools.failed
Yes

OpenAI.ResponseMCPListToolsInProgressEvent

Émis lorsque le système est en train de récupérer la liste des outils MCP disponibles.

Name Type Description Required Default
type enum Type de l’événement. Always 'response.mcp_list_tools.in_progress'.
Valeurs possibles : response.mcp_list_tools.in_progress
Yes

OpenAI.ResponseOutputItemAddedEvent

Émis lorsqu’un nouvel élément de sortie est ajouté.

Name Type Description Required Default
item object Élément de contenu utilisé pour générer une réponse. Yes
└─ id string No
└─ type OpenAI.ItemType No
output_index integer Index de l’élément de sortie qui a été ajouté. Yes
type enum Type de l’événement. Toujours response.output_item.added.
Valeurs possibles : response.output_item.added
Yes

OpenAI.ResponseOutputItemDoneEvent

Émis lorsqu’un élément de sortie est marqué comme terminé.

Name Type Description Required Default
item object Élément de contenu utilisé pour générer une réponse. Yes
└─ id string No
└─ type OpenAI.ItemType No
output_index integer Index de l’élément de sortie marqué comme terminé. Yes
type enum Type de l’événement. Toujours response.output_item.done.
Valeurs possibles : response.output_item.done
Yes

OpenAI.ResponsePromptVariables

Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers.

Type: object

OpenAI.ResponseQueuedEvent

Émis lorsqu’une réponse est mise en file d’attente et en attente d’être traitée.

Name Type Description Required Default
response object Yes
└─ background boolean Indique s’il faut exécuter la réponse du modèle en arrière-plan. No False
└─ created_at integer Horodatage Unix (en secondes) de la création de cette réponse. No
└─ error OpenAI.ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. No
└─ id string Identificateur unique pour cette réponse. No
└─ incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète. No
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
└─ instructions chaîne ou tableau Message système (ou développeur) inséré dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
└─ max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement No
└─ max_tool_calls integer Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. No
└─ metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
└─ object enum Type d’objet de cette ressource - toujours défini sur response.
Valeurs possibles : response
No
└─ output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
No
└─ output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les sdk Python et JavaScript.
No
└─ parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. No True
└─ previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
└─ prompt OpenAI.Prompt Référence à un modèle d’invite et à ses variables. No
└─ reasoning OpenAI.Reasoning Modèles de série o uniquement

Options de configuration pour les modèles de raisonnement.
No
└─ status enum État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incomplete
Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete
No
└─ temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No
└─ text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. No
└─ format OpenAI.ResponseTextFormatConfiguration No
└─ tool_choice OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. No
└─ tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle.
No
└─ top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. No
└─ top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No
└─ truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.
Valeurs possibles : auto, disabled
No
└─ usage OpenAI.ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. No
└─ user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. No
type enum Type de l’événement. Always 'response.queued'.
Valeurs possibles : response.queued
Yes

OpenAI.ResponseReasoningDeltaEvent

Émis lorsqu’il existe un delta (mise à jour partielle) vers le contenu du raisonnement.

Name Type Description Required Default
content_index integer Index de la partie de contenu de raisonnement dans l’élément de sortie. Yes
delta Mise à jour partielle du contenu du raisonnement. Yes
item_id string Identificateur unique de l’élément pour lequel le raisonnement est mis à jour. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
type enum Type de l’événement. Always 'response.reasoning.delta'.
Valeurs possibles : response.reasoning.delta
Yes

OpenAI.ResponseReasoningDoneEvent

Émis lorsque le contenu du raisonnement est finalisé pour un élément.

Name Type Description Required Default
content_index integer Index de la partie de contenu de raisonnement dans l’élément de sortie. Yes
item_id string Identificateur unique de l’élément pour lequel le raisonnement est finalisé. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
text string Texte de raisonnement finalisé. Yes
type enum Type de l’événement. Always 'response.reasoning.done'.
Valeurs possibles : response.reasoning.done
Yes

OpenAI.ResponseReasoningSummaryDeltaEvent

Émis lorsqu’il existe un delta (mise à jour partielle) vers le contenu récapitulative du raisonnement.

Name Type Description Required Default
delta Mise à jour partielle du contenu récapitulative du raisonnement. Yes
item_id string Identificateur unique de l’élément pour lequel le résumé du raisonnement est mis à jour. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
summary_index integer Index de la partie récapitulative dans l’élément de sortie. Yes
type enum Type de l’événement. Always 'response.reasoning_summary.delta'.
Valeurs possibles : response.reasoning_summary.delta
Yes

OpenAI.ResponseReasoningSummaryDoneEvent

Émis lorsque le contenu récapitulative du raisonnement est finalisé pour un élément.

Name Type Description Required Default
item_id string Identificateur unique de l’élément pour lequel le résumé du raisonnement est finalisé. Yes
output_index integer Index de l’élément de sortie dans le tableau de sortie de la réponse. Yes
summary_index integer Index de la partie récapitulative dans l’élément de sortie. Yes
text string Texte résumé du raisonnement finalisé. Yes
type enum Type de l’événement. Always 'response.reasoning_summary.done'.
Valeurs possibles : response.reasoning_summary.done
Yes

OpenAI.ResponseReasoningSummaryPartAddedEvent

Émis lorsqu’une nouvelle partie récapitulative de raisonnement est ajoutée.

Name Type Description Required Default
item_id string ID de l’élément avec lequel cette partie récapitulative est associée. Yes
output_index integer Index de l’élément de sortie auquel cette partie récapitulative est associée. Yes
part object Yes
└─ type OpenAI.ReasoningItemSummaryPartType No
summary_index integer Index de la partie récapitulative dans le résumé du raisonnement. Yes
type enum Type de l’événement. Toujours response.reasoning_summary_part.added.
Valeurs possibles : response.reasoning_summary_part.added
Yes

OpenAI.ResponseReasoningSummaryPartDoneEvent

Émis lorsqu’une partie récapitulative de raisonnement est terminée.

Name Type Description Required Default
item_id string ID de l’élément avec lequel cette partie récapitulative est associée. Yes
output_index integer Index de l’élément de sortie auquel cette partie récapitulative est associée. Yes
part object Yes
└─ type OpenAI.ReasoningItemSummaryPartType No
summary_index integer Index de la partie récapitulative dans le résumé du raisonnement. Yes
type enum Type de l’événement. Toujours response.reasoning_summary_part.done.
Valeurs possibles : response.reasoning_summary_part.done
Yes

OpenAI.ResponseReasoningSummaryTextDeltaEvent

Émis lorsqu’un delta est ajouté à un texte récapitulative de raisonnement.

Name Type Description Required Default
delta string Delta de texte ajouté au résumé. Yes
item_id string ID de l’élément associé à ce delta de texte récapitulative. Yes
output_index integer Index de l’élément de sortie auquel ce delta de texte récapitulative est associé. Yes
summary_index integer Index de la partie récapitulative dans le résumé du raisonnement. Yes
type enum Type de l’événement. Toujours response.reasoning_summary_text.delta.
Valeurs possibles : response.reasoning_summary_text.delta
Yes

OpenAI.ResponseReasoningSummaryTextDoneEvent

Émis lorsqu’un texte récapitulative de raisonnement est terminé.

Name Type Description Required Default
item_id string ID de l’élément avec lequel ce texte de synthèse est associé. Yes
output_index integer Index de l’élément de sortie auquel ce texte récapitulative est associé. Yes
summary_index integer Index de la partie récapitulative dans le résumé du raisonnement. Yes
text string Texte intégral du résumé du raisonnement terminé. Yes
type enum Type de l’événement. Toujours response.reasoning_summary_text.done.
Valeurs possibles : response.reasoning_summary_text.done
Yes

OpenAI.ResponseRefusalDeltaEvent

Émis lorsqu’il existe un texte de refus partiel.

Name Type Description Required Default
content_index integer Index de la partie de contenu à laquelle le texte de refus est ajouté. Yes
delta string Texte de refus ajouté. Yes
item_id string ID de l’élément de sortie auquel le texte de refus est ajouté. Yes
output_index integer Index de l’élément de sortie auquel le texte de refus est ajouté. Yes
type enum Type de l’événement. Toujours response.refusal.delta.
Valeurs possibles : response.refusal.delta
Yes

OpenAI.ResponseRefusalDoneEvent

Émis lorsque le texte de refus est finalisé.

Name Type Description Required Default
content_index integer Index de la partie de contenu que le texte de refus est finalisé. Yes
item_id string ID de l’élément de sortie que le texte de refus est finalisé. Yes
output_index integer Index de l’élément de sortie que le texte de refus est finalisé. Yes
refusal string Texte de refus finalisé. Yes
type enum Type de l’événement. Toujours response.refusal.done.
Valeurs possibles : response.refusal.done
Yes

OpenAI.ResponseStreamEvent

Discriminateur pour OpenAI.ResponseStreamEvent

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
response.completed OpenAI.ResponseCompletedEvent
response.content_part.added OpenAI.ResponseContentPartAddedEvent
response.content_part.done OpenAI.ResponseContentPartDoneEvent
response.created OpenAI.ResponseCreatedEvent
error OpenAI.ResponseErrorEvent
response.file_search_call.completed OpenAI.ResponseFileSearchCallCompletedEvent
response.file_search_call.in_progress OpenAI.ResponseFileSearchCallInProgressEvent
response.file_search_call.searching OpenAI.ResponseFileSearchCallSearchingEvent
response.function_call_arguments.delta OpenAI.ResponseFunctionCallArgumentsDeltaEvent
response.function_call_arguments.done OpenAI.ResponseFunctionCallArgumentsDoneEvent
response.in_progress OpenAI.ResponseInProgressEvent
response.failed OpenAI.ResponseFailedEvent
response.incomplete OpenAI.ResponseIncompleteEvent
response.output_item.added OpenAI.ResponseOutputItemAddedEvent
response.output_item.done OpenAI.ResponseOutputItemDoneEvent
response.refusal.delta OpenAI.ResponseRefusalDeltaEvent
response.refusal.done OpenAI.ResponseRefusalDoneEvent
response.output_text.delta OpenAI.ResponseTextDeltaEvent
response.output_text.done OpenAI.ResponseTextDoneEvent
response.reasoning_summary_part.added OpenAI.ResponseReasoningSummaryPartAddedEvent
response.reasoning_summary_part.done OpenAI.ResponseReasoningSummaryPartDoneEvent
response.reasoning_summary_text.delta OpenAI.ResponseReasoningSummaryTextDeltaEvent
response.reasoning_summary_text.done OpenAI.ResponseReasoningSummaryTextDoneEvent
response.web_search_call.completed OpenAI.ResponseWebSearchCallCompletedEvent
response.web_search_call.in_progress OpenAI.ResponseWebSearchCallInProgressEvent
response.web_search_call.searching OpenAI.ResponseWebSearchCallSearchingEvent
response.image_generation_call.completed OpenAI.ResponseImageGenCallCompletedEvent
response.image_generation_call.generating OpenAI.ResponseImageGenCallGeneratingEvent
response.image_generation_call.in_progress OpenAI.ResponseImageGenCallInProgressEvent
response.image_generation_call.partial_image OpenAI.ResponseImageGenCallPartialImageEvent
response.mcp_call.arguments_delta OpenAI.ResponseMCPCallArgumentsDeltaEvent
response.mcp_call.arguments_done OpenAI.ResponseMCPCallArgumentsDoneEvent
response.mcp_call.completed OpenAI.ResponseMCPCallCompletedEvent
response.mcp_call.failed OpenAI.ResponseMCPCallFailedEvent
response.mcp_call.in_progress OpenAI.ResponseMCPCallInProgressEvent
response.mcp_list_tools.completed OpenAI.ResponseMCPListToolsCompletedEvent
response.mcp_list_tools.failed OpenAI.ResponseMCPListToolsFailedEvent
response.mcp_list_tools.in_progress OpenAI.ResponseMCPListToolsInProgressEvent
response.queued OpenAI.ResponseQueuedEvent
response.reasoning.delta OpenAI.ResponseReasoningDeltaEvent
response.reasoning.done OpenAI.ResponseReasoningDoneEvent
response.reasoning_summary.delta OpenAI.ResponseReasoningSummaryDeltaEvent
response.reasoning_summary.done OpenAI.ResponseReasoningSummaryDoneEvent
response.code_interpreter_call_code.delta OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
response.code_interpreter_call_code.done OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
response.code_interpreter_call.completed OpenAI.ResponseCodeInterpreterCallCompletedEvent
response.code_interpreter_call.in_progress OpenAI.ResponseCodeInterpreterCallInProgressEvent
response.code_interpreter_call.interpreting OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Name Type Description Required Default
sequence_number integer Numéro de séquence de cet événement. Yes
type OpenAI.ResponseStreamEventType Yes

OpenAI.ResponseStreamEventType

Property Value
Type string
Values response.audio.delta
response.audio.done
response.audio_transcript.delta
response.audio_transcript.done
response.code_interpreter_call_code.delta
response.code_interpreter_call_code.done
response.code_interpreter_call.completed
response.code_interpreter_call.in_progress
response.code_interpreter_call.interpreting
response.completed
response.content_part.added
response.content_part.done
response.created
error
response.file_search_call.completed
response.file_search_call.in_progress
response.file_search_call.searching
response.function_call_arguments.delta
response.function_call_arguments.done
response.in_progress
response.failed
response.incomplete
response.output_item.added
response.output_item.done
response.refusal.delta
response.refusal.done
response.output_text.annotation.added
response.output_text.delta
response.output_text.done
response.reasoning_summary_part.added
response.reasoning_summary_part.done
response.reasoning_summary_text.delta
response.reasoning_summary_text.done
response.web_search_call.completed
response.web_search_call.in_progress
response.web_search_call.searching
response.image_generation_call.completed
response.image_generation_call.generating
response.image_generation_call.in_progress
response.image_generation_call.partial_image
response.mcp_call.arguments_delta
response.mcp_call.arguments_done
response.mcp_call.completed
response.mcp_call.failed
response.mcp_call.in_progress
response.mcp_list_tools.completed
response.mcp_list_tools.failed
response.mcp_list_tools.in_progress
response.queued
response.reasoning.delta
response.reasoning.done
response.reasoning_summary.delta
response.reasoning_summary.done

OpenAI.ResponseTextDeltaEvent

Émis lorsqu’il existe un delta de texte supplémentaire.

Name Type Description Required Default
content_index integer Index de la partie de contenu à laquelle le delta de texte a été ajouté. Yes
delta string Delta de texte ajouté. Yes
item_id string ID de l’élément de sortie auquel le delta de texte a été ajouté. Yes
output_index integer Index de l’élément de sortie auquel le delta de texte a été ajouté. Yes
type enum Type de l’événement. Toujours response.output_text.delta.
Valeurs possibles : response.output_text.delta
Yes

OpenAI.ResponseTextDoneEvent

Émis lorsque le contenu du texte est finalisé.

Name Type Description Required Default
content_index integer Index de la partie de contenu que le contenu du texte est finalisé. Yes
item_id string ID de l’élément de sortie que le contenu du texte est finalisé. Yes
output_index integer Index de l’élément de sortie que le contenu du texte est finalisé. Yes
text string Contenu texte finalisé. Yes
type enum Type de l’événement. Toujours response.output_text.done.
Valeurs possibles : response.output_text.done
Yes

OpenAI.ResponseTextFormatConfiguration

Discriminateur pour OpenAI.ResponseTextFormatConfiguration

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
text OpenAI.ResponseTextFormatConfigurationText
json_object OpenAI.ResponseTextFormatConfigurationJsonObject
json_schema OpenAI.ResponseTextFormatConfigurationJsonSchema
Name Type Description Required Default
type OpenAI.ResponseTextFormatConfigurationType Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
Yes

OpenAI.ResponseTextFormatConfigurationJsonObject

Name Type Description Required Default
type enum
Valeurs possibles : json_object
Yes

OpenAI.ResponseTextFormatConfigurationJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées.

Name Type Description Required Default
description string Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. No
name string Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
schema OpenAI.ResponseFormatJsonSchemaSchema Schéma pour le format de réponse, décrit en tant qu’objet json Schema.
Découvrez comment créer des schémas JSON ici.
Yes
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie.
Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true.
No False
type enum Type de format de réponse défini. Toujours json_schema.
Valeurs possibles : json_schema
Yes

OpenAI.ResponseTextFormatConfigurationText

Name Type Description Required Default
type enum
Valeurs possibles : text
Yes

OpenAI.ResponseTextFormatConfigurationType

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

Property Value
Description Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schemaest recommandée pour les modèles qui le prennent en charge.

OpenAI.ResponseUsage

Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.

Name Type Description Required Default
input_tokens integer Nombre de jetons d’entrée. Yes
input_tokens_details object Répartition détaillée des jetons d’entrée. Yes
└─ cached_tokens integer Nombre de jetons récupérés à partir du cache. No
output_tokens integer Nombre de jetons de sortie. Yes
output_tokens_details object Répartition détaillée des jetons de sortie. Yes
└─ reasoning_tokens integer Nombre de jetons de raisonnement. No
total_tokens integer Nombre total de jetons utilisés. Yes

OpenAI.ResponseWebSearchCallCompletedEvent

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
item_id string ID unique de l’élément de sortie associé à l’appel de recherche web. Yes
output_index integer Index de l’élément de sortie auquel l’appel de recherche web est associé. Yes
type enum Type de l’événement. Toujours response.web_search_call.completed.
Valeurs possibles : response.web_search_call.completed
Yes

OpenAI.ResponseWebSearchCallInProgressEvent

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
item_id string ID unique de l’élément de sortie associé à l’appel de recherche web. Yes
output_index integer Index de l’élément de sortie auquel l’appel de recherche web est associé. Yes
type enum Type de l’événement. Toujours response.web_search_call.in_progress.
Valeurs possibles : response.web_search_call.in_progress
Yes

OpenAI.ResponseWebSearchCallSearchingEvent

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
item_id string ID unique de l’élément de sortie associé à l’appel de recherche web. Yes
output_index integer Index de l’élément de sortie auquel l’appel de recherche web est associé. Yes
type enum Type de l’événement. Toujours response.web_search_call.searching.
Valeurs possibles : response.web_search_call.searching
Yes

OpenAI.ResponsesAssistantMessageItemParam

Élément de paramètre de message avec le assistant rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours assistant.
Valeurs possibles : assistant
Yes

OpenAI.ResponsesAssistantMessageItemResource

Élément de ressource de message avec le assistant rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours assistant.
Valeurs possibles : assistant
Yes

OpenAI.ResponsesDeveloperMessageItemParam

Élément de paramètre de message avec le developer rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours developer.
Valeurs possibles : developer
Yes

OpenAI.ResponsesDeveloperMessageItemResource

Élément de ressource de message avec le developer rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours developer.
Valeurs possibles : developer
Yes

OpenAI.ResponsesMessageItemParam

Élément de message de réponse, représentant un rôle et du contenu, tel qu’il est fourni en tant que paramètres de demande client.

Discriminateur pour OpenAI.ResponsesMessageItemParam

Ce composant utilise la propriété role pour faire la distinction entre différents types :

Type Value Schema
user OpenAI.ResponsesUserMessageItemParam
system OpenAI.ResponsesSystemMessageItemParam
developer OpenAI.ResponsesDeveloperMessageItemParam
assistant OpenAI.ResponsesAssistantMessageItemParam
Name Type Description Required Default
role object Collection de rôles valides pour les éléments de message de réponse. Yes
type enum Type de l’élément de réponses, qui est toujours « message ».
Valeurs possibles : message
Yes

OpenAI.ResponsesMessageItemResource

Élément de ressource de message de réponse, représentant un rôle et du contenu, tel qu’il est fourni sur les réponses de service.

Discriminateur pour OpenAI.ResponsesMessageItemResource

Ce composant utilise la propriété role pour faire la distinction entre différents types :

Type Value Schema
user OpenAI.ResponsesUserMessageItemResource
system OpenAI.ResponsesSystemMessageItemResource
developer OpenAI.ResponsesDeveloperMessageItemResource
assistant OpenAI.ResponsesAssistantMessageItemResource
Name Type Description Required Default
role object Collection de rôles valides pour les éléments de message de réponse. Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.
Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type de l’élément de réponses, qui est toujours « message ».
Valeurs possibles : message
Yes

OpenAI.ResponsesMessageRole

Collection de rôles valides pour les éléments de message de réponse.

Property Value
Description Collection de rôles valides pour les éléments de message de réponse.
Type string
Values system
developer
user
assistant

OpenAI.ResponsesSystemMessageItemParam

Élément de paramètre de message avec le system rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours system.
Valeurs possibles : system
Yes

OpenAI.ResponsesSystemMessageItemResource

Élément de ressource de message avec le system rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours system.
Valeurs possibles : system
Yes

OpenAI.ResponsesUserMessageItemParam

Élément de paramètre de message avec le user rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours user.
Valeurs possibles : user
Yes

OpenAI.ResponsesUserMessageItemResource

Élément de ressource de message avec le user rôle.

Name Type Description Required Default
content array Contenu associé au message. Yes
role enum Rôle du message, qui est toujours user.
Valeurs possibles : user
Yes

OpenAI.RunGraderRequest

Name Type Description Required Default
grader object Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. Yes
└─ calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. No
└─ evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Balise d’image à utiliser pour le script Python. No
└─ input array Texte d’entrée. Cela peut inclure des chaînes de modèle. No
└─ model string Modèle à utiliser pour l’évaluation. No
└─ name string Nom du classateur. No
└─ operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
No
└─ range array Plage du score. La valeur par défaut est [0, 1]. No
└─ reference string Texte en cours de classement. No
└─ sampling_params Paramètres d’échantillonnage du modèle. No
└─ source string Code source du script Python. No
└─ type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
No
item Élément de jeu de données fourni au classateur. Cela sera utilisé pour remplir l’espace item de noms. No
model_sample string Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir l’espace sample de noms.
La output_json variable est remplie si l’exemple de modèle est une chaîne JSON valide.
Yes

OpenAI.RunGraderResponse

Name Type Description Required Default
metadata object Yes
└─ errors object No
└─ formula_parse_error boolean No
└─ invalid_variable_error boolean No
└─ model_grader_parse_error boolean No
└─ model_grader_refusal_error boolean No
└─ model_grader_server_error boolean No
└─ model_grader_server_error_details string No
└─ other_error boolean No
└─ python_grader_runtime_error boolean No
└─ python_grader_runtime_error_details string No
└─ python_grader_server_error boolean No
└─ python_grader_server_error_type string No
└─ sample_parse_error boolean No
└─ truncated_observation_error boolean No
└─ unresponsive_reward_error boolean No
└─ execution_time number No
└─ name string No
└─ sampled_model_name string No
└─ scores No
└─ token_usage integer No
└─ type string No
model_grader_token_usage_per_model Yes
reward number Yes
sub_rewards Yes

OpenAI.StaticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Nombre de jetons qui se chevauchent entre des blocs. La valeur par défaut est 400.

Notez que le chevauchement ne doit pas dépasser la moitié de max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Nombre maximal de jetons dans chaque bloc. La valeur par défaut est 800. La valeur minimale est 100 et la valeur maximale est 4096. Yes

OpenAI.StaticChunkingStrategyRequestParam

Personnalisez votre propre stratégie de segmentation en définissant la taille de bloc et le chevauchement de blocs.

Name Type Description Required Default
static OpenAI.StaticChunkingStrategy Yes
type enum Toujours static.
Valeurs possibles : static
Yes

OpenAI.StaticChunkingStrategyResponseParam

Name Type Description Required Default
static OpenAI.StaticChunkingStrategy Yes
type enum Toujours static.
Valeurs possibles : static
Yes

OpenAI.StopConfiguration

Non pris en charge avec les derniers modèles o3 de raisonnement et o4-mini.

Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.

Ce schéma accepte l’un des types suivants :

  • string
  • array

OpenAI.Tool

Discriminateur pour OpenAI.Tool

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
function OpenAI.FunctionTool
file_search OpenAI.FileSearchTool
computer_use_preview OpenAI.ComputerUsePreviewTool
web_search_preview OpenAI.WebSearchPreviewTool
code_interpreter OpenAI.CodeInterpreterTool
image_generation OpenAI.ImageGenTool
local_shell OpenAI.LocalShellTool
mcp OpenAI.MCPTool
Name Type Description Required Default
type OpenAI.ToolType Outil qui peut être utilisé pour générer une réponse. Yes

OpenAI.ToolChoiceObject

Discriminateur pour OpenAI.ToolChoiceObject

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
file_search OpenAI.ToolChoiceObjectFileSearch
computer_use_preview OpenAI.ToolChoiceObjectComputer
web_search_preview OpenAI.ToolChoiceObjectWebSearch
image_generation OpenAI.ToolChoiceObjectImageGen
code_interpreter OpenAI.ToolChoiceObjectCodeInterpreter
function OpenAI.ToolChoiceObjectFunction
mcp OpenAI.ToolChoiceObjectMCP
Name Type Description Required Default
type OpenAI.ToolChoiceObjectType Indique que le modèle doit utiliser un outil intégré pour générer une réponse. Yes

OpenAI.ToolChoiceObjectCodeInterpreter

Name Type Description Required Default
type enum
Valeurs possibles : code_interpreter
Yes

OpenAI.ToolChoiceObjectComputer

Name Type Description Required Default
type enum
Valeurs possibles : computer_use_preview
Yes

OpenAI.ToolChoiceObjectFileSearch

Name Type Description Required Default
type enum
Valeurs possibles : file_search
Yes

OpenAI.ToolChoiceObjectFunction

Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
name string Nom de la fonction à appeler. Yes
type enum Pour l’appel de fonction, le type est toujours function.
Valeurs possibles : function
Yes

OpenAI.ToolChoiceObjectImageGen

Name Type Description Required Default
type enum
Valeurs possibles : image_generation
Yes

OpenAI.ToolChoiceObjectMCP

Utilisez cette option pour forcer le modèle à appeler un outil spécifique sur un serveur MCP distant.

Name Type Description Required Default
name string Nom de l’outil à appeler sur le serveur. No
server_label string Étiquette du serveur MCP à utiliser. Yes
type enum Pour les outils MCP, le type est toujours mcp.
Valeurs possibles : mcp
Yes

OpenAI.ToolChoiceObjectType

Indique que le modèle doit utiliser un outil intégré pour générer une réponse.

Property Value
Description Indique que le modèle doit utiliser un outil intégré pour générer une réponse.
Type string
Values file_search
function
computer_use_preview
web_search_preview
image_generation
code_interpreter
mcp

OpenAI.ToolChoiceObjectWebSearch

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
type enum
Valeurs possibles : web_search_preview
Yes

OpenAI.ToolChoiceOptions

Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.

Property Value
Description Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
Type string
Values none
auto
required

OpenAI.ToolType

Outil qui peut être utilisé pour générer une réponse.

Property Value
Description Outil qui peut être utilisé pour générer une réponse.
Type string
Values file_search
function
computer_use_preview
web_search_preview
mcp
code_interpreter
image_generation
local_shell

OpenAI.TopLogProb

Probabilité de journal supérieure d’un jeton.

Name Type Description Required Default
bytes array Yes
logprob number Yes
token string Yes

OpenAI.TranscriptionAudioResponseFormat

References: OpenAI.AudioResponseFormat

OpenAI.TranscriptionInclude

Property Value
Type string
Values logprobs

OpenAI.TranscriptionSegment

Name Type Description Required Default
avg_logprob number Logprob moyen du segment. Si la valeur est inférieure à -1, tenez compte de l’échec des logprobs. Yes
compression_ratio number Taux de compression du segment. Si la valeur est supérieure à 2,4, envisagez l’échec de la compression. Yes
end number Heure de fin du segment en secondes. Yes
id integer Identificateur unique du segment. Yes
no_speech_prob number Probabilité d’absence de parole dans le segment. Si la valeur est supérieure à 1,0 et que la avg_logprob valeur est inférieure à -1, tenez compte de ce segment silencieux. Yes
seek integer Recherchez le décalage du segment. Yes
start number Heure de début du segment en secondes. Yes
temperature number Paramètre de température utilisé pour générer le segment. Yes
text string Contenu texte du segment. Yes
tokens array Tableau d’ID de jetons pour le contenu du texte. Yes

OpenAI.TranscriptionWord

Name Type Description Required Default
end number Heure de fin du mot en secondes. Yes
start number Heure de début du mot en secondes. Yes
word string Contenu texte du mot. Yes

OpenAI.TranslationAudioResponseFormat

References: OpenAI.AudioResponseFormat

OpenAI.UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. Yes

OpenAI.UpdateVectorStoreRequest

Name Type Description Required Default
expires_after object Stratégie d’expiration d’un magasin de vecteurs. No
└─ anchor enum Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.
Valeurs possibles : last_active_at
No
└─ days integer Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
name string Nom du magasin vectoriel. No

OpenAI.VadConfig

Name Type Description Required Default
prefix_padding_ms integer Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). No 300
silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes).
Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No 200
threshold number Seuil de sensibilité (0,0 à 1,0) pour la détection d’activité vocale. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. No 0.5
type enum Doit être défini pour activer la segmentation manuelle à server_vad l’aide du VAD côté serveur.
Valeurs possibles : server_vad
Yes

OpenAI.ValidateGraderRequest

Name Type Description Required Default
grader object Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. Yes
└─ calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. No
└─ evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Balise d’image à utiliser pour le script Python. No
└─ input array Texte d’entrée. Cela peut inclure des chaînes de modèle. No
└─ model string Modèle à utiliser pour l’évaluation. No
└─ name string Nom du classateur. No
└─ operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
No
└─ range array Plage du score. La valeur par défaut est [0, 1]. No
└─ reference string Texte en cours de classement. No
└─ sampling_params Paramètres d’échantillonnage du modèle. No
└─ source string Code source du script Python. No
└─ type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
No

OpenAI.ValidateGraderResponse

Name Type Description Required Default
grader object Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. No
└─ calculate_output string Formule permettant de calculer la sortie en fonction des résultats du classateur. No
└─ evaluation_metric enum Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_l
Valeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l
No
└─ graders object No
└─ image_tag string Balise d’image à utiliser pour le script Python. No
└─ input array Texte d’entrée. Cela peut inclure des chaînes de modèle. No
└─ model string Modèle à utiliser pour l’évaluation. No
└─ name string Nom du classateur. No
└─ operation enum Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.
Valeurs possibles : eq, , nelike,ilike
No
└─ range array Plage du score. La valeur par défaut est [0, 1]. No
└─ reference string Texte en cours de classement. No
└─ sampling_params Paramètres d’échantillonnage du modèle. No
└─ source string Code source du script Python. No
└─ type enum Type d’objet, qui est toujours multi.
Valeurs possibles : multi
No

OpenAI.VectorStoreExpirationAfter

Stratégie d’expiration d’un magasin de vecteurs.

Name Type Description Required Default
anchor enum Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.
Valeurs possibles : last_active_at
Yes
days integer Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. Yes

OpenAI.VectorStoreFileAttributes

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.

Type: object

OpenAI.VectorStoreFileBatchObject

Lot de fichiers attachés à un magasin vectoriel.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le lot de fichiers de magasin de vecteurs a été créé. Yes
file_counts object Yes
└─ cancelled integer Nombre de fichiers qui ont été annulés. No
└─ completed integer Nombre de fichiers qui ont été traités. No
└─ failed integer Nombre de fichiers qui n’ont pas pu être traité. No
└─ in_progress integer Nombre de fichiers en cours de traitement. No
└─ total integer Nombre total de fichiers. No
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
object enum Type d’objet, qui est toujours vector_store.file_batch.
Valeurs possibles : vector_store.files_batch
Yes
status enum État du lot de fichiers de magasin de vecteurs, qui peut être in_progresssoit , completedsoit cancelledfailed.
Valeurs possibles : in_progress, , completedcancelled,failed
Yes
vector_store_id string ID du magasin de vecteurs auquel le fichier est attaché. Yes

OpenAI.VectorStoreFileObject

Liste de fichiers attachés à un magasin de vecteurs.

Name Type Description Required Default
attributes object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. No
chunking_strategy object No
└─ type enum
Valeurs possibles : static, other
No
created_at integer Horodatage Unix (en secondes) pour lequel le fichier de magasin de vecteurs a été créé. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
last_error object Dernière erreur associée à ce fichier de magasin de vecteurs. null Sera en l’absence d’erreurs. Yes
└─ code enum L’un d’entre server_error eux ou rate_limit_exceeded.
Valeurs possibles : server_error, , unsupported_fileinvalid_file
No
└─ message string Description lisible par l’homme de l’erreur. No
object enum Type d’objet, qui est toujours vector_store.file.
Valeurs possibles : vector_store.file
Yes
status enum État du fichier de magasin de vecteurs, qui peut être in_progresssoit , completed, cancelledou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé.
Valeurs possibles : in_progress, , completedcancelled,failed
Yes
usage_bytes integer Utilisation totale du magasin de vecteurs en octets. Notez que cela peut être différent de la taille du fichier d’origine. Yes
vector_store_id string ID du magasin de vecteurs auquel le fichier est attaché. Yes

OpenAI.VectorStoreObject

Un magasin vectoriel est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search .

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le magasin de vecteurs a été créé. Yes
expires_after OpenAI.VectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
expires_at integer Horodatage Unix (en secondes) pour l’expiration du magasin vectoriel. No
file_counts object Yes
└─ cancelled integer Nombre de fichiers annulés. No
└─ completed integer Nombre de fichiers qui ont été traités avec succès. No
└─ failed integer Nombre de fichiers qui n’ont pas pu être traité. No
└─ in_progress integer Nombre de fichiers en cours de traitement. No
└─ total integer Nombre total de fichiers. No
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
last_active_at integer Horodatage Unix (en secondes) pour lequel le magasin vectoriel a été actif pour la dernière fois. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
name string Nom du magasin vectoriel. Yes
object enum Type d’objet, qui est toujours vector_store.
Valeurs possibles : vector_store
Yes
status enum État du magasin vectoriel, qui peut être soit expired, in_progresssoit completed. L’état indique completed que le magasin vectoriel est prêt à être utilisé.
Valeurs possibles : expired, , in_progresscompleted
Yes
usage_bytes integer Nombre total d’octets utilisés par les fichiers dans le magasin vectoriel. Yes

OpenAI.VoiceIdsShared

Property Value
Type string
Values alloy
ash
ballad
coral
echo
fable
onyx
nova
sage
shimmer
verse

OpenAI.WebSearchAction

Discriminateur pour OpenAI.WebSearchAction

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
find OpenAI.WebSearchActionFind
open_page OpenAI.WebSearchActionOpenPage
search OpenAI.WebSearchActionSearch
Name Type Description Required Default
type OpenAI.WebSearchActionType Yes

OpenAI.WebSearchActionFind

Type d’action « find » : recherche un modèle dans une page chargée.

Name Type Description Required Default
pattern string Modèle ou texte à rechercher dans la page. Yes
type enum Type d’action.
Valeurs possibles : find
Yes
url string URL de la page recherchée pour le modèle. Yes

OpenAI.WebSearchActionOpenPage

Type d’action « open_page » : ouvre une URL spécifique à partir des résultats de la recherche.

Name Type Description Required Default
type enum Type d’action.
Valeurs possibles : open_page
Yes
url string URL ouverte par le modèle. Yes

OpenAI.WebSearchActionSearch

Type d’action « search » : effectue une requête de recherche web.

Name Type Description Required Default
query string Requête de recherche. Yes
type enum Type d’action.
Valeurs possibles : search
Yes

OpenAI.WebSearchActionType

Property Value
Type string
Values search
open_page
find

OpenAI.WebSearchPreviewTool

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
search_context_size enum Conseils de haut niveau pour la quantité d’espace de fenêtre contextuelle à utiliser pour la recherche. Un des low, mediumou high. medium est la valeur par défaut.
Valeurs possibles : low, , mediumhigh
No
type enum Type de l’outil de recherche web. L’un d’entre web_search_preview eux ou web_search_preview_2025_03_11.
Valeurs possibles : web_search_preview
Yes
user_location object No
└─ type OpenAI.LocationType No

OpenAI.WebSearchToolCallItemParam

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
action object Yes
└─ type OpenAI.WebSearchActionType No
type enum
Valeurs possibles : web_search_call
Yes

OpenAI.WebSearchToolCallItemResource

Remarque : web_search n’est pas encore disponible via Azure OpenAI.

Name Type Description Required Default
action object Yes
└─ type OpenAI.WebSearchActionType No
status enum État de l’appel de l’outil de recherche web.
Valeurs possibles : in_progress, , searchingcompleted,failed
Yes
type enum
Valeurs possibles : web_search_call
Yes

PineconeChatDataSource

Name Type Description Required Default
parameters object Informations de paramètre pour contrôler l’utilisation de la source de données Pinecone. Yes
└─ allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
└─ authentication object No
└─ key string No
└─ type enum
Valeurs possibles : api_key
No
└─ embedding_dependency object Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données. No
└─ type AzureChatDataSourceVectorizationSourceType Identificateur de différenciation pour la source de vectorisation concrète. No
└─ environment string Nom de l’environnement à utiliser avec Pinecone. No
└─ fields_mapping object Mappages de champs à appliquer aux données utilisées par la source de données Pinecone.
Notez que les mappages de champs de contenu sont requis pour Pinecone.
No
└─ content_fields array No
└─ content_fields_separator string No
└─ filepath_field string No
└─ title_field string No
└─ url_field string No
└─ in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation des données indexées. No
└─ include_contexts array Propriétés du contexte de sortie à inclure dans la réponse.
Par défaut, les citations et l’intention sont demandées.
No ['citations', 'intent']
└─ index_name string Nom de l’index de base de données Pinecone à utiliser. No
└─ max_search_queries integer Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur.
Par défaut, le système effectue une détermination automatique.
No
└─ strictness integer La rigueur configurée du filtrage de pertinence de la recherche.
Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible.
No
└─ top_n_documents integer Nombre configuré de documents à présenter dans la requête. No
type enum Identificateur de type discriminé, qui est toujours « pincone ».
Valeurs possibles : pinecone
Yes

Quality

Qualité du contenu vidéo à récupérer. Cela spécifie la qualité du contenu vidéo à retourner.

Property Value
Description Qualité du contenu vidéo à récupérer.
Cela spécifie la qualité du contenu vidéo à retourner.
Type string
Values high
low

ResponseFormatJSONSchemaRequest

Name Type Description Required Default
json_schema object Schéma JSON pour le format de réponse Yes
type enum Type de format de réponse
Valeurs possibles : json_schema
Yes

ResponseModalities

Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]

Tableau de : chaîne

SpeechGenerationResponseFormat

Formats de sortie audio pris en charge pour la synthèse vocale.

Ce composant peut être l’un des éléments suivants :

VideoGeneration

Résultat de la génération de vidéos.

Name Type Description Required Default
created_at integer Heure de création de la génération de vidéos. Yes
height integer Hauteur de la vidéo. Yes
id string ID de la génération de vidéo. Yes
job_id string ID du travail de génération de vidéo pour cette vidéo. Yes
n_seconds integer Durée de la génération de vidéos. Yes
object enum
Valeurs possibles : video.generation
Yes
prompt string Invite de cette génération vidéo. Yes
width integer Largeur de la vidéo. Yes

VideoGenerationJob

Un travail de génération de vidéos.

Name Type Description Required Default
created_at integer Heure de création du travail. Yes
expires_at integer Heure à laquelle le travail est automatiquement supprimé du service. Le contenu vidéo et les métadonnées du travail doivent être stockés avant cette date pour éviter toute perte de données. No
failure_reason chaîne (voir les modèles valides ci-dessous) No
finished_at integer Heure à laquelle le travail s’est terminé avec toutes les générations vidéo. No
generations array Vidéos générées pour ce travail. Le nombre dépend de la n_variants donnée et de la réussite de la création des générations. No
height integer Hauteur de la vidéo. Yes
id string ID du travail. Yes
inpaint_items array Éléments d’inpainting facultatifs pour ce travail de génération de vidéos. No
model string Nom du déploiement à utiliser pour ce travail de génération de vidéos. Yes
n_seconds integer Durée du travail de génération de vidéos. Yes
n_variants integer Nombre de vidéos à créer en tant que variantes pour ce travail de génération de vidéos. Yes
object enum
Valeurs possibles : video.generation.job
Yes
prompt string Invite de ce travail de génération de vidéos. Yes
status object État d’un travail de génération de vidéos. Yes
width integer Hauteur de la vidéo. Yes

VideoGenerationJobList

Liste des travaux de génération vidéo.

Name Type Description Required Default
data array Liste des travaux de génération vidéo. Yes
first_id string ID du premier travail de la page active, le cas échéant. No
has_more boolean Indicateur indiquant s’il existe davantage de travaux disponibles après la liste. Yes
last_id string ID du dernier travail de la page active, le cas échéant. No
object enum
Valeurs possibles : list
Yes

Next steps

Découvrez les modèles et le réglage précis avec l’API REST. En savoir plus sur les modèles underlying qui alimentent Azure OpenAI.