Informations de référence sur l’API REST Azure OpenAI dans Microsoft Foundry Models

Cet article fournit des détails sur les points de terminaison de l’API REST d’inférence pour Azure OpenAI.

API specs

La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :

  • Control plane
  • Plan de données - création
  • Plan de données - inférence

Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.

Important

Il existe maintenant une nouvelle API d’inférence en préversion. En savoir plus dans notre guide de cycle de vie des API.

API Dernière préversion Dernière version en disponibilité générale Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files L’API de plan de contrôle est utilisée pour les opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI.
Data plane v1 preview v1 Spec files L’API du plan de données contrôle les opérations d’inférence et de création.

Authentication

Azure OpenAI fournit deux méthodes d’authentification. Vous pouvez utiliser les clés API ou l’ID Microsoft Entra.

  • Authentification par clé API : pour ce type d’authentification, toutes les demandes d’API doivent inclure la clé API dans l’en-tête api-key HTTP. Le guide de démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.

  • Authentification de l’ID Microsoft Entra : vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont inclus dans une requête en tant qu’en-tête Authorization . Le jeton fourni doit être précédé Bearer, par exemple Bearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur l’authentification avec l’ID Microsoft Entra.

Contrôle de version de l’API REST

Les API de service sont versionnée à l’aide du api-version paramètre de requête. Toutes les versions suivent la structure de dates aaaa-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inférence du plan de données

Le reste de l’article couvre la 2025-04-01-preview préversion de la spécification d’inférence du plan de données Azure OpenAI.

Si vous recherchez de la documentation sur la dernière version de l’API GA, reportez-vous à la dernière API d’inférence du plan de données ga

Saisie semi-automatique - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
best_of integer Génère des achèvements best_of côté serveur et retourne le « meilleur » (celui avec la probabilité de journal la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Lorsqu’il est utilisé avec , contrôle le nombre d’achèvements candidats et spécifie le nombre à retourner Ã>â' doit être supérieur à .

Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop.
No 1
echo boolean Renvoyer l’invite en plus de l’achèvement No False
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. No 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <jeton |endoftext|> .
No None
logprobs integer Incluez les probabilités de journal sur les jetons de logprobs sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs elle est 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 des éléments dans la réponse.

La valeur maximale de logprobs 5.
No None
max_tokens integer Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
No 16
n integer Nombre d’achèvements à générer pour chaque invite.

Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop.
No 1
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. No 0
prompt chaîne ou tableau Invite à générer des achèvements pour, encodés sous la forme d’une chaîne, d’un tableau de chaînes, d’un tableau de jetons ou d’un tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de document que le modèle voit lors de l’entraînement. Par conséquent, si une invite n’est pas spécifiée, le modèle génère comme si à partir du début d’un nouveau document.
Yes
seed integer S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à quatre séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. No
stream boolean Indique s’il faut renvoyer la progression partielle. Si elles sont définies, les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message. Exemple de code Python.
No False
suffix string Suffixe qui vient après la fin du texte inséré.

Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Code d’état : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporations - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string ID de déploiement du modèle déployé.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. No
encoding_format string Format dans lequel retourner les incorporations. Peut être soit float ou base64. La valeur par défaut est float. No
input chaîne ou tableau Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser les jetons d’entrée max pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide, et tout tableau doit être de 2 048 dimensions ou moins. Yes
input_type string type d’entrée de la recherche d’incorporation à utiliser No
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et à détecter les abus. No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Retournez les incorporations pour une invite donnée.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Saisie semi-automatique de conversation - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Crée une saisie semi-automatique pour le message de conversation

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.

Valeurs possibles : wav, , mp3flac, opus,pcm16
No
└─ voice enum Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.

Valeurs possibles : alloy, , echofable, onyx, novashimmer
No
data_sources array Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
No
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim.
No 0
function_call string ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas une fonction et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut quand aucune fonction n’est présente. auto est la valeur par défaut si les fonctions sont présentes.
No
functions array Déconseillé en faveur de tools.

Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON.
No
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
No None
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . No False
max_completion_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
No
messages array Liste des messages comprenant la conversation jusqu’à présent. Exemple de code Python. Yes
metadata object Balises et valeurs définies par le développeur utilisées pour filtrer les achèvements dans le tableau de bord des saisies semi-automatique stockées. No
modalities ChatCompletionModalities Types de sortie que vous souhaitez générer pour ce modèle.
La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]
No
n integer Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. No 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
prediction PredictionContent Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous régénéez un fichier avec uniquement des modifications mineures apportées à la plupart du contenu. No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
No 0
reasoning_effort enum Modèles o1 uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.

Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
Valeurs possibles : low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Paramètre permettant d’activer { "type": "json_schema", "json_schema": {...} } les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le paramètre permettant { "type": "json_object" } d’activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
seed integer Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons.
No
store boolean Indique si la sortie de cette demande de saisie semi-automatique de conversation doit être utilisée dans nos produits de validation ou d’évaluation de modèle. No
stream boolean Si cette option est définie, les deltas de messages partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message. Exemple de code Python.
No False
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
tool_choice chatCompletionToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si les outils sont présents. No
tools array Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs doit être défini true sur si ce paramètre est utilisé. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No
user_security_context userSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. En savoir plus sur la protection des applications IA à l’aide de Microsoft Defender pour Cloud. No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json object

Code d’état : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique basée sur les données Azure Search et l’identité managée affectée par le système.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique basée sur les données de vecteur d’image Recherche Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique basée sur les données vectorielles recherche Azure, le message assistant précédent et l’identité managée affectée par l’utilisateur.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique pour Azure Cosmos DB fourni.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique pour la base de données Mongo fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique pour Elasticsearch fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une saisie semi-automatique pour la ressource Pinecone fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcriptions - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcrit l’audio dans la langue d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
model string ID du modèle à utiliser. Les options sont gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, whisper-1, et gpt-4o-transcribe-diarize. Yes
file string Objet de fichier audio à transcrire. Yes
language string Langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. No
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0
timestamp_granularities[] array Granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. No ['segment']

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Texte transcrit au format de sortie (lorsque response_format était l’un des textéléments ou vttsrt).

Examples

Example

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traductions - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcrit et traduit l’audio d’entrée en texte anglais.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Fichier audio à traduire. Yes
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Texte transcrit au format de sortie (lorsque response_format était l’un des textes, vtt ou srt).

Examples

Example

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code d’état : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Speech - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Génère de l’audio à partir du texte d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. Yes
response_format enum Format dans lequel synthétiser l’audio.
Valeurs possibles : mp3, , opusaac, flac, wavpcm
No
speed number Vitesse de l’audio synthétisé. Sélectionnez une valeur à 0.25partir de 4.0 . 1.0 est la valeur par défaut. No 1.0
voice enum Voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, , echofable, onyx, novashimmer
Yes

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Synthétise l’audio à partir du texte fourni.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Réponses : Code d’état : 200

{
  "body": "101010101"
}

Générations d’images - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Génère un lot d’images à partir d’une légende de texte sur un déploiement de modèle de génération d’images donné

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
background imageBackground Permet de définir la transparence pour l’arrière-plan des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. No auto
n integer Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. No 100
output_format imagesOutputFormat Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. No png
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour la série gpt-image-1 et 4 000 caractères pour dall-e-3 Yes
partial_images integer Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement. 0
stream boolean Modifiez l’image en mode streaming. no false
quality imageQuality Qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles -series qui retournent toujours des images codées en base64.
Valeurs possibles : url, b64_json.
No url
size imageSize Taille des images générées. No auto
style imageStyle Style des images générées. Prise en charge uniquement pour dall-e-3. No vivid
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

Responses

Code d’état : 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Code d’état : par défaut

Description : Une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crée des images à l’invite.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Réponses : Code d’état : 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Générations d’images - Modifier

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Modifie une image à partir d’une légende de texte sur un déploiement de modèle gpt-image-1 donné

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
image chaîne ou tableau Image à modifier. Doit être un fichier image pris en charge ou un tableau d’images. Chaque image doit être un fichier png ou jpg inférieur à 50 Mo. Yes
input_fidelity string Contrôler l’effort que le modèle exercera pour correspondre au style et aux caractéristiques, en particulier les caractéristiques faciales, des images d’entrée. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. Prend en charge high et low. no low.
mask string Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. No
n integer Nombre d’images à générer. Doit être compris entre 1 et 10. No 1
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. Yes
quality imageQuality Qualité de l’image qui sera générée. No auto
partial_images Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement.
stream boolean Modifiez l’image en mode streaming. no false
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. No url
size imageSize Taille des images générées. No auto
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

Responses

Code d’état : 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Code d’état : par défaut

Description : Une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Liste - Assistants

Note

L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Retourne une liste d’assistants.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Retourne une liste d’assistants.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Créer - Assistant

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Créez un assistant avec un modèle et des instructions.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système que l’Assistant utilise. La longueur maximale est de 256 000 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string Yes
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
└─ vector_stores array Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Créez un assistant avec un modèle et des instructions.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obtenir - Assistant

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Récupère un assistant.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID de l’Assistant à récupérer.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Récupère un assistant.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modifier - Assistant

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifie un assistant.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID de l’Assistant à modifier.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système que l’Assistant utilise. La longueur maximale est de 32768 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string No
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Remplace la liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Remplace le magasin vectoriel attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifie un assistant.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Supprimer - Assistant

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Supprimez un assistant.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string ID de l’Assistant à supprimer.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Supprime un assistant.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Créer - Thread

Note

L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Créez un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
messages array Liste des messages avec utilisant lequel démarrer le thread. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
tool_resources object Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No
└─ vector_stores array Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Crée un thread.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obtenir - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Récupère un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à récupérer.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Récupère un thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifier - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifie un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à modifier. Seul le metadata fichier peut être modifié.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
tool_resources object Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifie un thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Supprimer - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Supprimez un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à supprimer.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Supprime un thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Liste - Messages

Note

L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Retourne une liste de messages pour un thread donné.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads auxquels appartiennent les messages.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
run_id query No string Filtrez les messages par l’ID d’exécution qui les a générés.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Créer - Message

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Créez un message.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads pour utilisant lequel créer un message.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
attachments array Liste des fichiers joints au message et outils auxquels ils doivent être ajoutés. No
content string Contenu du message. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
role string Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user: indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.
- assistant: indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’Assistant dans la conversation.
Yes

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Créez un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obtenir - Message

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Récupérer un message.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads auxquels ce message appartient.
message_id path Yes string ID du message à récupérer.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Récupérer un message.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifier - Message

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifie un message.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel ce message appartient.
message_id path Yes string ID du message à modifier.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modifiez un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Créer - Thread and Run

Note

L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Créez un thread et exécutez-le dans une seule requête.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
assistant_id string ID de l’Assistant à utiliser pour exécuter cette exécution. Yes
instructions string Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
max_prompt_tokens integer Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message.
No
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Créez un thread et exécutez-le dans une seule requête.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Liste - Exécutions

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retourne une liste d’exécutions appartenant à un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel appartient l’exécution.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Retourne une liste d’exécutions appartenant à un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Créer - Exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Créez une exécution.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread à exécuter.
include[] query No array Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge consiste step_details.tool_calls[*].file_search.results[*].content à extraire le contenu du résultat de la recherche de fichiers.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions pour l’exécution. Cela est utile pour modifier le comportement par exécution sans remplacer d’autres instructions. No
additional_messages array Ajoute des messages supplémentaires au thread avant de créer l’exécution. No
assistant_id string ID de l’Assistant à utiliser pour exécuter cette exécution. Yes
instructions string Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
max_prompt_tokens integer Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_choice assistantsApiToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tools array Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Créez une exécution.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obtenir - Exécuter

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Récupère une exécution.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads qui ont été exécutés.
run_id path Yes string ID de l’exécution à récupérer.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Obtient une exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifier - Exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifie une exécution.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads qui ont été exécutés.
run_id path Yes string ID de l’exécution à modifier.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifie une exécution.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Envoyer - Sorties de l’outil à exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Lorsqu’une exécution a la status: "requires_action" valeur et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’ils sont tous terminés. Toutes les sorties doivent être envoyées dans une seule requête.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID des threads auxquels appartient cette exécution.
run_id path Yes string ID de l’exécution qui nécessite la soumission de sortie de l’outil.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message.
No
tool_outputs array Liste des outils pour lesquels les sorties sont envoyées. Yes

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Lorsqu’une exécution a la status: "requires_action" valeur et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’ils sont tous terminés. Toutes les sorties doivent être envoyées dans une seule requête.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annuler - Exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Annule une exécution qui est in_progress.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel appartient cette exécution.
run_id path Yes string ID de l’exécution à annuler.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Annule une exécution qui est in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Liste - Étapes d’exécution

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retourne une liste des étapes d’exécution appartenant à une exécution.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID du thread auquel appartiennent les étapes d’exécution et d’exécution.
run_id path Yes string L’ID de l’exécution des étapes d’exécution appartient.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string
include[] query No array Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge consiste step_details.tool_calls[*].file_search.results[*].content à extraire le contenu du résultat de la recherche de fichiers.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Retourne une liste des étapes d’exécution appartenant à une exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Get - Exécuter l’étape

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Récupère une étape d’exécution.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string ID du thread auquel appartient l’étape d’exécution et d’exécution.
run_id path Yes string ID de l’exécution à laquelle appartient l’étape d’exécution.
step_id path Yes string ID de l’étape d’exécution à récupérer.
include[] query No array Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge consiste step_details.tool_calls[*].file_search.results[*].content à extraire le contenu du résultat de la recherche de fichiers.
api-version query Yes string

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Récupère une étape d’exécution.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Liste - Magasins vectoriels

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retourne une liste de magasins vectoriels.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Retourne une liste de magasins vectoriels.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Créer - Magasin de vecteurs

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Créez un magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. Applicable uniquement s’il file_ids n’est pas vide. No
expires_after vectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
file_ids array Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
name string Nom du magasin vectoriel. No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Crée un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obtenir – Magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Récupère un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à récupérer.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Récupère un magasin vectoriel.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifier - Magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifie un magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à modifier.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
name string Nom du magasin vectoriel. No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifie un magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Supprimer - Magasin de vecteurs

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Supprimez un magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à supprimer.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Supprime un magasin vectoriel.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Liste - Fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retourne une liste de fichiers de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartiennent les fichiers.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
filter query No string
Valeurs possibles : in_progress, , completedfailed,cancelled
Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. .
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retourne une liste de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Créer - Fichier de magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs pour lequel créer un fichier.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_id string ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin vectoriel.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Réponses : Code d’état : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obtenir - Fichier de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Récupère un fichier de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier récupéré.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Récupère un fichier de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Supprimer - Fichier de magasin de vecteurs

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin vectoriel, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression du fichier.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier à supprimer.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin vectoriel, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression du fichier.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Mettez à jour les attributs sur un fichier de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartient le fichier.
file_id path Yes string ID du fichier pour mettre à jour les attributs.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.
Yes

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Récupérer le contenu du fichier de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Récupérez le contenu analysé d’un fichier de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs.
file_id path Yes string ID du fichier dans le magasin de vecteurs.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Magasin de vecteurs de recherche

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Recherchez un magasin de vecteurs pour les blocs pertinents en fonction d’un filtre d’attributs de requête et de fichier.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs à rechercher.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
filters ComparisonFilter ou CompoundFilter Filtre à appliquer en fonction des attributs de fichier. No
max_num_results integer Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. No 10
query chaîne ou tableau Chaîne de requête pour une recherche Yes
ranking_options object Options de classement pour la recherche. No
└─ ranker enum
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. No False

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Créer - Lot de fichiers du magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Créez un lot de fichiers de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs pour lequel créer un lot de fichiers.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_ids array Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Créez un lot de fichiers de magasin de vecteurs.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Réponses : Code d’état : 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Obtenir – Lot de fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Récupère un lot de fichiers de magasin de vecteurs.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers récupéré.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Récupère un lot de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annuler - Lot de fichiers du magasin de vecteurs

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin de vecteurs auquel appartient le lot de fichiers.
batch_id path Yes string ID du lot de fichiers à annuler.
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Liste - Fichiers de fichiers de magasin de vecteurs

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retourne une liste de fichiers de magasin de vecteurs dans un lot.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string ID du magasin vectoriel auquel appartiennent les fichiers.
batch_id path Yes string ID du lot de fichiers auquel appartiennent les fichiers.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez l’ordre en fonction de l’horodatage created_at des objets. asc pour l’ordre croissant et desc pour l’ordre décroissant.
after query No string Curseur à utiliser dans la pagination. after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste.
before query No string Curseur à utiliser dans la pagination. before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste.
filter query No string
Valeurs possibles : in_progress, , completedfailed,cancelled
Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. .
api-version query Yes string api version

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retourne une liste de fichiers de magasin de vecteurs.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Réponses : Code d’état : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Créer - Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement session.update client. Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.

Request Body

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.
Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, la valeur par défaut est désactivée et peut être définie pour null désactiver une seule fois. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model string Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.
No
└─ prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
instructions string Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.

Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
model string Nom du déploiement utilisé pour cette session.
No
output_audio_format enum Format de l’audio de sortie. Les options sont pcm16, g711_ulawou g711_alaw.
Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales.
No 0.8
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction.
No auto
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de tour.

Valeurs possibles : server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Code d’état : 200

Description : Session créée avec succès.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Créer : Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel spécifiquement pour les transcriptions en temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement transcription_session.update client. Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :
- item.input_audio_transcription.logprobs
No
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.
Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model enum Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1.

Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de tour.

Valeurs possibles : server_vad, semantic_vad
No

Responses

Code d’état : 200

Description : Session créée avec succès.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Crée une réponse de modèle.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array No
input chaîne ou tableau Model inputs Yes
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.
No True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. En savoir plus sur l’état de conversation.
No
reasoning Reasoning Options de configuration pour les modèles de raisonnement. No
store boolean Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API.
No True
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur.
Pour plus d’informations, consultez la section Streaming ci-dessous.
No False
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more:
- Entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés : outils fournis par OpenAI qui étendent le
model's capabilities
No
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Code d’état : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

API Réponses - Éléments d’entrée

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Récupère une réponse de modèle avec l’ID donné.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string ID de la réponse à récupérer.
include query No array Champs supplémentaires à inclure dans la réponse. Pour plus d’informations, consultez le include paramètre de création de réponse ci-dessus.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json response

Code d’état : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Supprime une réponse de modèle avec l’ID donné.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string ID de la réponse à supprimer.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Code d’état : 404

Description : Introuvable

Content-Type Type Description
application/json error

Code d’état : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

API Réponses - liste d’éléments de réponse

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retourne une liste d’éléments d’entrée pour une réponse donnée.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string ID de la réponse pour laquelle récupérer les éléments d’entrée.
limit query No integer Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Ordre de retour des éléments d’entrée. La valeur par défaut est asc.
- asc: retourne les éléments d’entrée dans l’ordre croissant.
- desc: retourne les éléments d’entrée dans l’ordre décroissant.
after query No string ID d’élément pour répertorier les éléments après, utilisé dans la pagination.
before query No string ID d’élément pour répertorier les éléments avant, utilisé dans la pagination.

Request Header

Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée: https://ai.azure.com/.default
api-key True string Fournir une clé API Azure OpenAI ici

Responses

Code d’état : 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Erreur interne avec des détails supplémentaires. No
param string No
type string No

innerError

Erreur interne avec des détails supplémentaires.

Name Type Description Required Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. No
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. No

innerErrorCode

Codes d’erreur pour l’objet d’erreur interne.

Property Value
Description Codes d’erreur pour l’objet d’erreur interne.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Erreur interne avec des détails supplémentaires. No
param string No
type string No

dalleInnerError

Erreur interne avec des détails supplémentaires.

Name Type Description Required Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. No
content_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. No
revised_prompt string Invite utilisée pour générer l’image, s’il y a eu une révision de l’invite. No

contentFilterCompletionTextSpan

Décrit une étendue dans le texte de saisie semi-automatique généré. Offset 0 est le premier point de code UTF32 du texte de saisie semi-automatique.

Name Type Description Required Default
completion_end_offset integer Décalage du premier point de code UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. Yes
completion_start_offset integer Décalage du point de code UTF32 qui commence l’étendue. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└─ URL string No
└─ license string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informations sur les résultats du filtrage de contenu.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Résultats du filtrage de contenu pour une seule invite dans la requête.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. No
prompt_index integer No

promptFilterResults

Résultats du filtrage de contenu pour zéro ou plusieurs invites dans la requête. Dans une demande de diffusion en continu, les résultats des différentes invites peuvent arriver à des moments différents ou dans différentes commandes.

Aucune propriété définie pour ce composant.

dalleContentFilterResults

Informations sur les résultats du filtrage de contenu.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. No 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet json qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. No
max_completion_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4096 - jetons d’invite). Cela n’est pas compatible avec les modèles de série o1. No 4096
metadata object Balises et valeurs définies par le développeur utilisées pour filtrer les achèvements dans le tableau de bord des saisies semi-automatique stockées. No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. No 0
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. No
store boolean Indique si la sortie de cette demande de saisie semi-automatique de conversation doit être utilisée dans nos produits de validation ou d’évaluation de modèle. No
stream boolean Si cette option est définie, les deltas de messages partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message. No False
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.
Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et détecter les abus. No

createCompletionRequest

Name Type Description Required Default
best_of integer Génère des achèvements best_of côté serveur et retourne le « meilleur » (celui avec la probabilité de journal la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.

Lorsqu’il est utilisé avec n, best_of contrôle le nombre d’achèvements de candidats et n spécifie le nombre à retourner. best_of doit être supérieur à n.

Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop.
No 1
echo boolean Renvoyer l’invite en plus de l’achèvement
No False
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim.
No 0
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <jeton |endoftext|> .
No None
logprobs integer Incluez les probabilités de journal sur les jetons de logprobs sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs elle est 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 des éléments dans la réponse.

La valeur maximale de logprobs 5.
No None
max_tokens integer Le nombre maximal de jetons peut être généré dans la saisie semi-automatique.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle.
No 16
n integer Nombre d’achèvements à générer pour chaque invite.

Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop.
No 1
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
No 0
prompt chaîne ou tableau Invite(s) à générer des achèvements pour, encodés en tant que chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de document que le modèle voit pendant l’entraînement. Par conséquent, si une invite n’est pas spécifiée, le modèle génère comme s’il s’agit du début d’un nouveau document.
Yes
seed integer S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.

Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
No
stream boolean Indique s’il faut renvoyer la progression partielle. Si elles sont définies, les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message. Exemple de code Python.
No False
suffix string Suffixe qui vient après la fin du texte inséré.

Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No

createCompletionResponse

Représente une réponse d’achèvement de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés partagent la même forme (contrairement au point de terminaison de conversation).

Name Type Description Required Default
choices array Liste des choix d’achèvement générés pour l’invite d’entrée. Yes
created integer Horodatage Unix (en secondes) de la création de l’achèvement. Yes
id string Identificateur unique de la saisie semi-automatique. Yes
model string Modèle utilisé pour l’achèvement. Yes
object enum Type d’objet, qui est toujours « text_completion »
Valeurs possibles : text_completion
Yes
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plusieurs invites dans la requête. Dans une demande de diffusion en continu, les résultats des différentes invites peuvent arriver à des moments différents ou dans différentes commandes. No
system_fingerprint string Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute.

Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme.
No
usage completionUsage Statistiques d’utilisation pour la demande d’achèvement. No

createChatCompletionRequest

Name Type Description Required Default
audio object Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.

Valeurs possibles : wav, , mp3flac, opus,pcm16
No
└─ voice enum Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.

Valeurs possibles : alloy, , echofable, onyx, novashimmer
No
data_sources array Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent.
Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI.
No
frequency_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim.
No 0
function_call string ou chatCompletionFunctionCallOption Déconseillé en faveur de tool_choice.

Contrôle la fonction (le cas échéant) appelée par le modèle.
none signifie que le modèle n’appelle pas une fonction et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la valeur par défaut quand aucune fonction n’est présente. auto est la valeur par défaut si les fonctions sont présentes.
No
functions array Déconseillé en faveur de tools.

Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON.
No
logit_bias object Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique.

Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié.
No None
logprobs boolean Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . No False
max_completion_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
No
messages array Liste des messages comprenant la conversation jusqu’à présent. Exemple de code Python. Yes
metadata object Balises et valeurs définies par le développeur utilisées pour filtrer les achèvements dans le tableau de bord des saisies semi-automatique stockées. No
modalities ChatCompletionModalities Types de sortie que vous souhaitez générer pour ce modèle.
La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]
No
n integer Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. No 1
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
prediction PredictionContent Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous régénéez un fichier avec uniquement des modifications mineures apportées à la plupart du contenu. No
presence_penalty number Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets.
No 0
reasoning_effort enum Modèles o1 uniquement

Limite l’effort sur le raisonnement des modèles de raisonnement.

Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
Valeurs possibles : low, , mediumhigh
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Paramètre permettant d’activer { "type": "json_schema", "json_schema": {...} } les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni.

Le paramètre permettant { "type": "json_object" } d’activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
seed integer Cette fonctionnalité est en version bêta.
S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.
Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons.
No
store boolean Indique si la sortie de cette demande de saisie semi-automatique de conversation doit être utilisée dans nos produits de validation ou d’évaluation de modèle. No
stream boolean Si cette option est définie, les deltas de messages partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message. Exemple de code Python.
No False
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.

Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
tool_choice chatCompletionToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si les outils sont présents. No
tools array Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge.
No
top_logprobs integer Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. logprobs doit être défini true sur si ce paramètre est utilisé. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No
user_security_context userSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. En savoir plus sur la protection des applications IA à l’aide de Microsoft Defender pour Cloud. No

userSecurityContext

Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. En savoir plus sur la protection des applications IA à l’aide de Microsoft Defender pour Cloud.

Name Type Description Required Default
application_name string Nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_id string Cet identificateur est l’ID d’objet utilisateur Microsoft Entra (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_tenant_id string L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multilocataire. No
source_ip string Capture l’adresse IP du client d’origine, acceptant les formats IPv4 et IPv6. No

chatCompletionFunctions

Name Type Description Required Default
description string Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
parameters FunctionParameters Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.
No

chatCompletionFunctionCallOption

La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Name Type Description Required Default
name string Nom de la fonction à appeler. Yes

chatCompletionFunctionParameters

Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide/ pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format.

Aucune propriété définie pour ce composant.

chatCompletionRequestMessage

Ce composant peut être l’un des éléments suivants :

ChatCompletionRequestDeveloperMessage

Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, developer les messages remplacent les messages précédents system .

Name Type Description Required Default
content chaîne ou tableau Contenu du message du développeur. Yes
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
role enum Rôle de l’auteur des messages, dans ce cas developer.
Valeurs possibles : developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message système. Yes
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
role enum Rôle de l’auteur des messages, dans ce cas system.
Valeurs possibles : system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message utilisateur.
Yes
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
role enum Rôle de l’auteur des messages, dans ce cas user.
Valeurs possibles : user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message assistant. Obligatoire, sauf indication tool_callsfunction_call contraire.
No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
└─ arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ name string Nom de la fonction à appeler. No
name string Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. No
refusal string Message de refus de l’assistant. No
role enum Rôle de l’auteur des messages, dans ce cas assistant.
Valeurs possibles : assistant
Yes
tool_calls chatCompletionMessageToolCalls Les appels d’outil générés par le modèle, tels que les appels de fonction. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content chaîne ou tableau Contenu du message de l’outil. Yes
role enum Rôle de l’auteur des messages, dans ce cas tool.
Valeurs possibles : tool
Yes
tool_call_id string Appel de l’outil auquel ce message répond. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Contenu du message de fonction. Yes
name string Nom de la fonction à appeler. Yes
role enum Rôle de l’auteur des messages, dans ce cas function.
Valeurs possibles : function
Yes

chatCompletionRequestDeveloperMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestSystemMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestUserMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestAssistantMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestToolMessageContentPart

Ce composant peut être l’un des éléments suivants :

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Contenu du texte. Yes
type enum Type de la partie de contenu.
Valeurs possibles : text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Données audio encodées en base64. No
└─ format enum Format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ».

Valeurs possibles : wav, mp3
No
type enum Type de la partie de contenu. Toujours input_audio.
Valeurs possibles : input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Spécifie le niveau de détail de l’image. En savoir plus dans le guide Vision.
Valeurs possibles : auto, , lowhigh
No
└─ url string URL de l’image ou des données d’image encodées en base64. No
type enum Type de la partie de contenu.
Valeurs possibles : image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Message de refus généré par le modèle. Yes
type enum Type de la partie de contenu.
Valeurs possibles : refusal
Yes

azureChatExtensionConfiguration

Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

###Discriminator pour azureChatExtensionConfiguration

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureChatExtensionType

Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Property Value
Description Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Paramètres de Recherche Azure lorsqu’ils sont utilisés comme extension de conversation Azure OpenAI. No
type azureChatExtensionType Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Paramètres de Recherche Azure lorsqu’ils sont utilisés comme extension de conversation Azure OpenAI.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource No
endpoint string Chemin d’accès absolu du point de terminaison de la ressource Recherche Azure à utiliser. Yes
fields_mapping azureSearchIndexFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Recherche Azure configurée. No
filter string Search filter. No
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
query_type azureSearchQueryType Type de requête de récupération Recherche Azure qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI. No
semantic_configuration string Configuration sémantique supplémentaire pour la requête. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. No

azureSearchIndexFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Recherche Azure configurée.

Name Type Description Required Default
content_fields array Noms des champs d’index qui doivent être traités comme du contenu. No
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin de fichier. No
image_vector_fields array Noms des champs qui représentent des données de vecteur d’image. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms des champs qui représentent des données vectorielles. No

azureSearchQueryType

Type de requête de récupération Recherche Azure qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Property Value
Description Type de requête de récupération Recherche Azure qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore. No
type azureChatExtensionType Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataConnectionStringAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. Yes
container_name string Nom du conteneur de ressources Azure Cosmos DB. Yes
database_name string Nom de la base de données vCore MongoDB à utiliser avec Azure Cosmos DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. Yes
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Nom de l’index vCore MongoDB à utiliser avec Azure Cosmos DB. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. No

azureCosmosDBFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.

Name Type Description Required Default
content_fields array Noms des champs d’index qui doivent être traités comme du contenu. Yes
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms des champs qui représentent des données vectorielles. Yes

elasticsearchChatExtensionConfiguration

Représentation spécifique des options configurables pour Elasticsearch lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI. No
type azureChatExtensionType Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource No
endpoint string Point de terminaison d’Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. No
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Nom d’index de Elasticsearch®. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
query_type elasticsearchQueryType Type de requête de récupération Elasticsearch® qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. No

elasticsearchIndexFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.

Name Type Description Required Default
content_fields array Noms des champs d’index qui doivent être traités comme du contenu. No
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms des champs qui représentent des données vectorielles. No

elasticsearchQueryType

Type de requête de récupération Elasticsearch® qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Property Value
Description Type de requête de récupération Elasticsearch® qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Représentation spécifique des options configurables pour Mongo DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation de Mongo DB. No
type azureChatExtensionType Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation de Mongo DB.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
app_name string Nom de l’application Mongo DB. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. Yes
collection_name string Nom de la collection de bases de données Mongo. Yes
database_name string Nom de la base de données Mongo DB. Yes
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Yes
endpoint string Nom du point de terminaison du cluster Mongo DB. Yes
fields_mapping mongoDBFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Mongo DB configurée. Yes
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Nom de l’index de base de données Mongo. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. No

mongoDBFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Mongo DB configurée.

Name Type Description Required Default
content_fields array Noms des champs d’index qui doivent être traités comme du contenu. Yes
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No
vector_fields array Noms des champs qui représentent des données vectorielles. Yes

pineconeChatExtensionConfiguration

Représentation spécifique des options configurables pour Pinecone lors de son utilisation en tant qu’extension de conversation Azure OpenAI.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone. No
type azureChatExtensionType Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

pineconeChatExtensionParameters

Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone.

Name Type Description Required Default
allow_partial_result boolean Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. No False
authentication onYourDataApiKeyAuthenticationOptions Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement de modèle d’incorporation interne dans la même ressource Azure OpenAI. Yes
environment string Nom de l’environnement de Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. Yes
in_scope boolean Indique si les requêtes doivent être limitées à l’utilisation de données indexées. No
include_contexts array Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Nom de l’index de base de données Pinecone. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. No
strictness integer La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. No
top_n_documents integer Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. No

pineconeFieldMappingOptions

Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.

Name Type Description Required Default
content_fields array Noms des champs d’index qui doivent être traités comme du contenu. Yes
content_fields_separator string Modèle de séparation que les champs de contenu doivent utiliser. No
filepath_field string Nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Nom du champ d’index à utiliser comme titre. No
url_field string Nom du champ d’index à utiliser comme URL. No

onYourDataAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données.

Discriminateur pour onYourDataAuthenticationOptions

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataContextProperty

Propriété de contexte.

Property Value
Description Propriété de contexte.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Types d’authentification pris en charge avec Azure OpenAI sur vos données.

Property Value
Description Types d’authentification pris en charge avec Azure OpenAI sur vos données.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.

Name Type Description Required Default
key string Clé API à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataConnectionStringAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.

Name Type Description Required Default
connection_string string Chaîne de connexion à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une paire de clés et d’ID de clé Elasticsearch.

Name Type Description Required Default
key string Clé Elasticsearch à utiliser pour l’authentification. No
key_id string ID de clé Elasticsearch à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une clé API encodée Elasticsearch.

Name Type Description Required Default
encoded_api_key string Clé API encodée Elasticsearch à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataAccessTokenAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation du jeton d’accès.

Name Type Description Required Default
access_token string Jeton d’accès à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.

Name Type Description Required Default
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.

Name Type Description Required Default
managed_identity_resource_id string ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.

Name Type Description Required Default
password string The password. à utiliser pour l’authentification. No
type onYourDataAuthenticationType Types d’authentification pris en charge avec Azure OpenAI sur vos données. Yes
username string Nom d’utilisateur à utiliser pour l’authentification. No

onYourDataVectorizationSource

Représentation abstraite d’une source de vectorisation pour Azure OpenAI On Your Data avec recherche vectorielle.

Ce composant utilise la propriété type pour faire la distinction entre différents types :

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataVectorizationSourceType

Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.

Property Value
Description Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un appel de point de terminaison Azure OpenAI public pour les incorporations.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions No
dimensions integer Nombre de dimensions dont les incorporations doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. No
endpoint string Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées. Il doit être au format de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. No
type onYourDataVectorizationSourceType Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataDeploymentNameVectorizationSource

Détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement de modèle d’incorporation interne dans la même ressource Azure OpenAI.

Name Type Description Required Default
deployment_name string Spécifie le nom du déploiement de modèle à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce déploiement de modèle via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. No
dimensions integer Nombre de dimensions dont les incorporations doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. No
type onYourDataVectorizationSourceType Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataIntegratedVectorizationSource

Représente le vectoriseur intégré défini dans la ressource de recherche.

Name Type Description Required Default
type onYourDataVectorizationSourceType Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataModelIdVectorizationSource

Détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un ID de modèle de service de recherche. Actuellement uniquement pris en charge par Elasticsearch®.

Name Type Description Required Default
model_id string Spécifie l’ID de modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. No
type onYourDataVectorizationSourceType Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

azureChatExtensionsMessageContext

Représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse de saisie semi-automatique de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.

Name Type Description Required Default
all_retrieved_documents array Tous les documents récupérés. No
citations array Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. No
intent string Intention détectée de l’historique des conversations, utilisée pour passer au prochain tour pour transférer le contexte. No

citation

informations de citation pour un message de réponse de saisie semi-automatique de conversation.

Name Type Description Required Default
chunk_id string ID de bloc de la citation. No
content string Contenu de la citation. Yes
filepath string Chemin d’accès du fichier de la citation. No
rerank_score number Score de reclassement du document récupéré. No
title string Titre de la citation. No
url string URL de la citation. No

retrievedDocument

Document récupéré.

Name Type Description Required Default
chunk_id string ID de bloc de la citation. No
content string Contenu de la citation. Yes
data_source_index integer Index de la source de données. No
filepath string Chemin d’accès du fichier de la citation. No
filter_reason filterReason Raison de filtrage du document récupéré. No
original_search_score number Score de recherche d’origine du document récupéré. No
rerank_score number Score de reclassement du document récupéré. No
search_queries array Requêtes de recherche utilisées pour récupérer le document. No
title string Titre de la citation. No
url string URL de la citation. No

filterReason

Raison de filtrage du document récupéré.

Property Value
Description Raison de filtrage du document récupéré.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object Fonction appelée par le modèle. Yes
└─ arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ name string Nom de la fonction à appeler. No
id string ID de l’appel de l’outil. Yes
type toolCallType Type de l’appel d’outil, dans ce cas function. Yes

toolCallType

Type de l’appel d’outil, dans ce cas function.

Property Value
Description Type de l’appel d’outil, dans ce cas function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Contenu du message. No
tool_call_id string Appel de l’outil auquel ce message répond. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Contenu du message. No
name string Contenu du message. No
role enum Rôle de l’auteur des messages, dans ce cas function.
Valeurs possibles : function
No

createChatCompletionResponse

Représente une réponse de saisie semi-automatique de conversation retournée par le modèle, en fonction de l’entrée fournie.

Name Type Description Required Default
choices array Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs s’il n est supérieur à 1. Yes
created integer Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. Yes
id string Identificateur unique de la saisie semi-automatique de conversation. Yes
model string Modèle utilisé pour la saisie semi-automatique de conversation. Yes
object enum Type d’objet, qui est toujours chat.completion.
Valeurs possibles : chat.completion
Yes
prompt_filter_results promptFilterResults Résultats du filtrage de contenu pour zéro ou plusieurs invites dans la requête. Dans une demande de diffusion en continu, les résultats des différentes invites peuvent arriver à des moments différents ou dans différentes commandes. No
system_fingerprint string Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute.

Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme.
No
usage completionUsage Statistiques d’utilisation pour la demande d’achèvement. No

createChatCompletionStreamResponse

Représente un segment diffusé en continu d’une réponse de saisie semi-automatique de conversation retournée par le modèle, en fonction de l’entrée fournie.

Name Type Description Required Default
choices array Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments s’il n est supérieur à 1.
Yes
created integer Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. Chaque bloc a le même horodatage. Yes
id string Identificateur unique de la saisie semi-automatique de conversation. Chaque bloc a le même ID. Yes
model string Modèle à générer l’achèvement. Yes
object enum Type d’objet, qui est toujours chat.completion.chunk.
Valeurs possibles : chat.completion.chunk
Yes
system_fingerprint string Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute.
Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme.
No

chatCompletionStreamResponseDelta

Delta de saisie semi-automatique de conversation généré par les réponses de modèle diffusées en continu.

Name Type Description Required Default
content string Contenu du message de bloc. No
function_call object Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
└─ arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ name string Nom de la fonction à appeler. No
refusal string Message de refus généré par le modèle. No
role enum Rôle de l’auteur de ce message.
Valeurs possibles : system, , userassistant,tool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. No
└─ name string Nom de la fonction à appeler. No
id string ID de l’appel de l’outil. No
index integer Yes
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
No

chatCompletionStreamOptions

Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.

Name Type Description Required Default
include_usage boolean Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide. Tous les autres blocs incluent également un usage champ, mais avec une valeur Null.
No

chatCompletionChoiceLogProbs

Journaliser les informations de probabilité pour le choix.

Name Type Description Required Default
content array Liste des jetons de contenu de message avec des informations de probabilité de journal. Yes
refusal array Liste des jetons de refus de message avec des informations de probabilité de journal. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Liste d’entiers représentant la représentation UTF-8 octets du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations d’octets doivent être combinés pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation d’octets pour le jeton. Yes
logprob number Probabilité de journal de ce jeton. Yes
token string The token. Yes
top_logprobs array Liste des jetons les plus probables et de leur probabilité de journal, à cette position de jeton. Dans de rares cas, il peut y avoir moins de nombre de demandes top_logprobs retournées. Yes

chatCompletionResponseMessage

Message d’achèvement de conversation généré par le modèle.

Name Type Description Required Default
audio object Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. No
└─ data string Octets audio encodés en base64 générés par le modèle, au format spécifié dans la requête.
No
└─ expires_at integer Horodatage Unix (en secondes) pour lequel cette réponse audio ne sera plus accessible sur le serveur pour une utilisation dans les conversations à plusieurs tours.
No
└─ id string Identificateur unique pour cette réponse audio. No
└─ transcript string Transcription de l’audio généré par le modèle. No
content string Contenu du message. Yes
context azureChatExtensionsMessageContext Représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse de saisie semi-automatique de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. No
function_call chatCompletionFunctionCall Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. No
refusal string Message de refus généré par le modèle. Yes
role chatCompletionResponseMessageRole Rôle de l’auteur du message de réponse. Yes
tool_calls array Les appels d’outil générés par le modèle, tels que les appels de fonction. No

chatCompletionResponseMessageRole

Rôle de l’auteur du message de réponse.

Property Value
Description Rôle de l’auteur du message de réponse.
Type string
Values assistant

chatCompletionToolChoiceOption

Contrôle (le cas échéant) l’outil appelé par le modèle. none signifie que le modèle n’appelle pas d’outil et génère plutôt un message. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. none est la valeur par défaut lorsqu’aucun outil n’est présent. auto est la valeur par défaut si les outils sont présents.

Ce composant peut être l’un des éléments suivants :

chatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
function object Yes
└─ name string Nom de la fonction à appeler. No
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
Yes

ParallelToolCalls

Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.

Aucune propriété définie pour ce composant.

PredictionContent

Contenu de sortie prédit statique, tel que le contenu d’un fichier texte régénéré.

Name Type Description Required Default
content chaîne ou tableau Contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle. Si les jetons générés correspondent à ce contenu, l’ensemble de la réponse du modèle peut être retournée beaucoup plus rapidement. Yes
type enum Type du contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.
Valeurs possibles : content
Yes

chatCompletionMessageToolCalls

Les appels d’outil générés par le modèle, tels que les appels de fonction.

Aucune propriété définie pour ce composant.

ChatCompletionModalities

Types de sortie que vous souhaitez générer pour ce modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]

Aucune propriété définie pour ce composant.

chatCompletionFunctionCall

Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.

Name Type Description Required Default
arguments string Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. Yes
name string Nom de la fonction à appeler. Yes

completionUsage

Statistiques d’utilisation pour la demande d’achèvement.

Name Type Description Required Default
completion_tokens integer Nombre de jetons dans la saisie semi-automatique générée. Yes
completion_tokens_details object Répartition des jetons utilisés dans une saisie semi-automatique. No
└─ accepted_prediction_tokens integer Lors de l’utilisation des sorties prédites, nombre de jetons dans la prédiction qui apparaissent dans la saisie semi-automatique. No
└─ audio_tokens integer Jetons d’entrée audio générés par le modèle. No
└─ reasoning_tokens integer Jetons générés par le modèle pour le raisonnement. No
└─ rejected_prediction_tokens integer Lorsque vous utilisez des sorties prédites, nombre de jetons dans la prédiction qui n’apparaissent pas dans la saisie semi-automatique. Toutefois, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. No
prompt_tokens integer Nombre de jetons dans l’invite. Yes
prompt_tokens_details object Détails des jetons d’invite. No
└─ audio_tokens integer Jetons d’entrée audio présents dans l’invite. No
└─ cached_tokens integer Nombre de jetons d’invite mis en cache. No
total_tokens integer Nombre total de jetons utilisés dans la requête (invite + achèvement). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.
Valeurs possibles : function
Yes

FunctionParameters

Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.

Aucune propriété définie pour ce composant.

FunctionObject

Name Type Description Required Default
description string Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. Yes
parameters FunctionParameters Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.
No
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le parameters champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. No False

ResponseFormatText

Name Type Description Required Default
type enum Type de format de réponse défini : text
Valeurs possibles : text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Type de format de réponse défini : json_object
Valeurs possibles : json_object
Yes

ResponseFormatJsonSchemaSchema

Schéma pour le format de réponse, décrit en tant qu’objet json Schema.

Aucune propriété définie pour ce composant.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. No
└─ name string Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. No
└─ schema ResponseFormatJsonSchemaSchema Schéma pour le format de réponse, décrit en tant qu’objet json Schema. No
└─ strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. No False
type enum Type de format de réponse défini : json_schema
Valeurs possibles : json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Fichier audio à traduire. Yes
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0

audioResponse

Réponse de traduction ou de transcription lorsque response_format a été json

Name Type Description Required Default
text string Texte traduit ou transcrit. Yes

audioVerboseResponse

Réponse de traduction ou de transcription lorsque response_format a été verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Type de tâche audio. No
text string Texte traduit ou transcrit. Yes
words array No

audioResponseFormat

Définit le format de la sortie.

Property Value
Description Définit le format de la sortie.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string Objet de fichier audio à transcrire. Yes
language string Langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. No
prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. No 0
timestamp_granularities[] array Granularités d’horodatage à remplir pour cette transcription. response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. No ['segment']

audioSegment

Segment de transcription ou de traduction.

Name Type Description Required Default
avg_logprob number Probabilité moyenne du journal. No
compression_ratio number Compression ratio. No
end number Décalage de fin de segment. No
id integer Segment identifier. No
no_speech_prob number Probabilité de « aucun discours ». No
seek number Décalage du segment. No
start number Décalage de début du segment. No
temperature number Temperature. No
text string Segment text. No
tokens array Jetons du texte. No

audioWord

Transcription ou mot de traduction.

Name Type Description Required Default
end number Décalage de fin word. No
start number Décalage de début de Word. No
word string Word No

createSpeechRequest

Speech request.

Name Type Description Required Default
input string Texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. Yes
response_format enum Format dans lequel synthétiser l’audio.
Valeurs possibles : mp3, , opusaac, flac, wavpcm
No
speed number Vitesse de l’audio synthétisé. Sélectionnez une valeur à 0.25partir de 4.0 . 1.0 est la valeur par défaut. No 1.0
voice enum Voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, , echofable, onyx, novashimmer
Yes

imageQuality

Qualité de l’image qui sera générée.

Property Value
Description Qualité de l’image qui sera générée.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Format dans lequel les images générées sont retournées.

Property Value
Description Format dans lequel les images générées sont retournées.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série.

Property Value
Description Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1.
Type string
Default png
Values png
jpeg

imageSize

Taille des images générées.

Property Value
Description Taille des images générées.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Style des images générées. Prise en charge uniquement pour dall-e-3.

Property Value
Description Style des images générées. Prise en charge uniquement pour dall-e-3.
Type string
Default vivid
Values vivid
natural

imageBackground

Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1.

Property Value
Description Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. No auto
n integer Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. No 1
output_compression integer Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. No 100
output_format imagesOutputFormat Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. No png
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour les modèles de série gpt-image-1 et 4 000 caractères pour dall-e-3 Yes
quality imageQuality Qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. Prise en charge uniquement pour dall-e-3. No url
size imageSize Taille des images générées. No auto
style imageStyle Style des images générées. Prise en charge uniquement pour dall-e-3. No vivid
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

imageEditsRequest

Name Type Description Required Default
image chaîne ou tableau Image à modifier. Doit être un fichier image pris en charge ou un tableau d’images. Chaque image doit être un fichier png ou jpg inférieur à 25 Mo. Yes
mask string Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. No
n integer Nombre d’images à générer. No 1
prompt string Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. Yes
quality imageQuality Qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Format dans lequel les images générées sont retournées. No url
size imageSize Taille des images générées. No auto
user string Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

generateImagesResponse

Name Type Description Required Default
created integer Horodatage unix lors de la création de l’opération. Yes
data array Données de résultat de l’opération, en cas de réussite Yes
usage imageGenerationsUsage Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1. No

imageResult

Url de l’image ou image encodée en cas de réussite et erreur dans le cas contraire.

Name Type Description Required Default
b64_json string Image encodée en base64 No
content_filter_results dalleContentFilterResults Informations sur les résultats du filtrage de contenu. No
prompt_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. No
revised_prompt string Invite utilisée pour générer l’image, s’il y a eu une révision de l’invite. No
url string URL de l’image. No

imageGenerationsUsage

Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1.

Name Type Description Required Default
input_tokens integer Nombre de jetons d’entrée. No
input_tokens_details object Répartition détaillée des jetons d’entrée. No
└─ image_tokens integer Nombre de jetons d’image. No
└─ text_tokens integer Nombre de jetons de texte. No
output_tokens integer Nombre de jetons de sortie. No
total_tokens integer Nombre total de jetons utilisés. No

line

Objet de ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.

Name Type Description Required Default
spans array Tableau d’étendues qui représentent les objets détectés et ses informations de cadre englobant. Yes
text string Yes

span

Objet span qui représente un objet détecté et ses informations de cadre englobant.

Name Type Description Required Default
length integer Longueur de l’étendue en caractères, mesurée en points de code Unicode. Yes
offset integer Décalage de caractère dans le texte où commence l’étendue. Ce décalage est défini comme la position du premier caractère de l’étendue, en comptant à partir du début du texte en tant que points de code Unicode. Yes
polygon array Tableau d’objets représentant des points dans le polygone qui entoure l’objet détecté. Yes
text string Contenu texte de l’étendue qui représente l’objet détecté. Yes

runCompletionUsage

Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, , queuedetc.).

Name Type Description Required Default
completion_tokens integer Nombre de jetons d’achèvement utilisés au cours de l’exécution. Yes
prompt_tokens integer Nombre de jetons d’invite utilisés au cours de l’exécution. Yes
total_tokens integer Nombre total de jetons utilisés (invite + achèvement). Yes

runStepCompletionUsage

Statistiques d’utilisation liées à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.

Name Type Description Required Default
completion_tokens integer Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. Yes
prompt_tokens integer Nombre de jetons d’invite utilisés au cours de l’étape d’exécution. Yes
total_tokens integer Nombre total de jetons utilisés (invite + achèvement). Yes

assistantsApiResponseFormatOption

Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.

Ce composant peut être l’un des éléments suivants :

assistantsApiResponseFormat

Objet décrivant la sortie attendue du modèle. Si json_object seul function le type tools est autorisé à être transmis à l’exécution. Si text le modèle peut retourner du texte ou une valeur nécessaire.

Name Type Description Required Default
type string Doit être l’un des text ou json_object. No text

type Enum : AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Représente un assistant modèle qui peut appeler le modèle et utiliser des outils.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel l’assistant a été créé. Yes
description string Description de l’assistant. La longueur maximale est de 512 caractères.
Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
instructions string Instructions système que l’Assistant utilise. La longueur maximale est de 256 000 caractères.
Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
Yes
model string ID du modèle à utiliser. Yes
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
Yes
object string Type d’objet, qui est toujours assistant. Yes
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_searchou function.
Yes []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1

énumération d’objet : AssistantObjectType

Value Description
assistant Type d’objet, qui est toujours assistant

createAssistantRequest

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système que l’Assistant utilise. La longueur maximale est de 256 000 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string Yes
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
└─ vector_stores array Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string Description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Instructions système que l’Assistant utilise. La longueur maximale est de 32768 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string No
name string Nom de l’assistant. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Remplace la liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Remplace le magasin vectoriel attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function.
No []
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum : DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Type d’outil défini : code_interpreter Yes

type Enum : assistantToolsCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Remplace l’outil de recherche de fichiers. No
└─ max_num_results integer Nombre maximal de résultats que l’outil de recherche de fichiers doit générer. La valeur par défaut est 20 pour les modèles gpt-4* et 5 pour gpt-3.5-turbo. Ce nombre doit être compris entre 1 et 50 inclus.

Notez que l’outil de recherche de fichiers peut générer moins de max_num_results résultats.
No
type string Type d’outil défini : file_search Yes

type Enum : assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Type d’outil défini : file_search Yes

type Enum : assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object Définition de la fonction. Yes
└─ description string Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
└─ name string Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. No
└─ parameters chatCompletionFunctionParameters Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide/ pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format. No
type string Type d’outil défini : function Yes

type Enum : assistantToolsFunction

Value Description
function

truncationObject

Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution.

Name Type Description Required Default
last_messages integer Nombre de messages les plus récents du thread lors de la construction du contexte de l’exécution. No
type string Stratégie de troncation à utiliser pour le thread. La valeur par défaut est auto. Si la valeur est définie last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définieauto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle. max_prompt_tokens Yes

type Enum : TruncationType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Contrôle (le cas échéant) l’outil appelé par le modèle. none signifie que le modèle n’appelle pas d’outils et génère plutôt un message. auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil. Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

Ce composant peut être l’un des éléments suivants :

assistantsNamedToolChoice

Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler un outil spécifique.

Name Type Description Required Default
function object No
└─ name string Nom de la fonction à appeler. No
type string Type de l’outil. Si le type est function, le nom de la fonction doit être défini Yes

type Enum : AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Représente une exécution sur un thread.

Name Type Description Required Default
assistant_id string ID de l’Assistant utilisé pour l’exécution de cette exécution. Yes
cancelled_at integer Horodatage Unix (en secondes) pour l’annulation de l’exécution. Yes
completed_at integer Horodatage Unix (en secondes) pour la fin de l’exécution. Yes
created_at integer Horodatage Unix (en secondes) pour la création de l’exécution. Yes
expires_at integer Horodatage Unix (en secondes) pour l’expiration de l’exécution. Yes
failed_at integer Horodatage Unix (en secondes) pour lequel l’exécution a échoué. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
incomplete_details object Détails sur la raison pour laquelle l’exécution est incomplète. null Sera si l’exécution n’est pas incomplète. Yes
└─ reason string La raison pour laquelle l’exécution est incomplète. Cela pointe vers quelle limite de jeton spécifique a été atteinte au cours de l’exécution. No
instructions string Instructions que l’Assistant a utilisées pour cette exécution. Yes
last_error object Dernière erreur associée à cette exécution. null Sera en l’absence d’erreurs. Yes
└─ code string L’un d’entre server_error eux ou rate_limit_exceeded. No
└─ message string Description lisible par l’homme de l’erreur. No
max_completion_tokens integer Nombre maximal de jetons d’achèvement spécifiés pour avoir été utilisés au cours de l’exécution.
Yes
max_prompt_tokens integer Nombre maximal de jetons d’invite spécifiés pour avoir été utilisés au cours de l’exécution.
Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
Yes
model string Modèle utilisé par l’Assistant pour cette exécution. Yes
object string Type d’objet, qui est toujours thread.run. Yes
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
required_action object Détails sur l’action requise pour poursuivre l’exécution. null Sera si aucune action n’est requise. Yes
└─ submit_tool_outputs object Détails sur les sorties de l’outil nécessaires à cette exécution pour continuer. No
└─ tool_calls array Liste des appels d’outils pertinents. No
└─ type enum Pour l’instant, c’est toujours submit_tool_outputs.
Valeurs possibles : submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
Yes
started_at integer Horodatage Unix (en secondes) pour le démarrage de l’exécution. Yes
status string État de l’exécution, qui peut être queuedsoit , , in_progressrequires_actioncancelling, cancelled, , failed, completedou expired. Yes
temperature number Température d’échantillonnage utilisée pour cette exécution. S’il n’est pas défini, la valeur par défaut est 1. No
thread_id string ID des threads qui ont été exécutés dans le cadre de cette exécution. Yes
tool_choice assistantsApiToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Yes
tools array Liste des outils utilisés par l’Assistant pour cette exécution. Yes []
top_p number Valeur d’échantillonnage du noyau utilisée pour cette exécution. S’il n’est pas défini, la valeur par défaut est 1. No
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. Yes
usage runCompletionUsage Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, , queuedetc.). Yes

enum d’objet : runObjectType

Value Description
thread.run Type d’objet d’exécution qui est toujours thread.run

status Enum : RunObjectStatus

Value Description
queued État mis en file d’attente
in_progress État in_progress
requires_action État required_action
cancelling État d’annulation
cancelled État annulé
failed État d’échec
completed État terminé
expired État expiré

createRunRequest

Name Type Description Required Default
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions pour l’exécution. Cela est utile pour modifier le comportement par exécution sans remplacer d’autres instructions. No
additional_messages array Ajoute des messages supplémentaires au thread avant de créer l’exécution. No
assistant_id string ID de l’Assistant à utiliser pour exécuter cette exécution. Yes
instructions string Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
max_prompt_tokens integer Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
tool_choice assistantsApiToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tools array Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message.
No
tool_outputs array Liste des outils pour lesquels les sorties sont envoyées. Yes

runToolCallObject

Objets d’appel d’outil

Name Type Description Required Default
function object Définition de la fonction. Yes
└─ arguments string Arguments que le modèle s’attend à ce que vous transmettiez à la fonction. No
└─ name string Nom de la fonction. No
id string ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les sorties de l’outil à l’aide des sorties de l’outil d’envoi pour exécuter endpointendpoint. Yes
type string Le type d’outil appelle la sortie. Pour l’instant, c’est toujours function. Yes

type Enum : RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string ID de l’Assistant à utiliser pour exécuter cette exécution. Yes
instructions string Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
max_prompt_tokens integer Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details .
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
model string ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
No
stream boolean Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message.
No
stream_options chatCompletionStreamOptions Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tool_resources object Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant.
No
tools array Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. No
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cette ou température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. No

threadObject

Représente un thread qui contient des messages.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le thread a été créé. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
Yes
object string Type d’objet, qui est toujours thread. Yes
tool_resources object Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
Yes
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No

énumération d’objet : ThreadObjectType

Value Description
thread Type d’objet thread qui est toujours thread

createThreadRequest

Name Type Description Required Default
messages array Liste des messages avec utilisant lequel démarrer le thread. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
tool_resources object Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No
└─ vector_stores array Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
tool_resources object Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs.
No
└─ code_interpreter object No
└─ file_ids array Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum : DeleteThreadResponseObjectState

Value Description
thread.deleted État de réponse du thread de suppression, qui est thread.deleted

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Représente un message au sein d’un thread.

Name Type Description Required Default
assistant_id string Le cas échéant, l’ID de l’assistant qui a créé ce message. Yes
attachments array Liste des fichiers joints au message et outils auxquels ils ont été ajoutés. Yes
completed_at integer Horodatage Unix (en secondes) pour la fin du message. Yes
content array Contenu du message dans le tableau de texte et/ou d’images. Yes
created_at integer Horodatage Unix (en secondes) pour lequel le message a été créé. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
incomplete_at integer Horodatage Unix (en secondes) pour lequel le message a été marqué comme incomplet. Yes
incomplete_details object Sur un message incomplet, détails sur la raison pour laquelle le message est incomplet. Yes
└─ reason string La raison pour laquelle le message est incomplet. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
Yes
object string Type d’objet, qui est toujours thread.message. Yes
role string Entité qui a produit le message. L’un d’entre user eux ou assistant. Yes
run_id string Le cas échéant, l’ID de l’exécution associée à la création de ce message. Yes
status string État du message, qui peut être soit in_progress, incompleteou completed. Yes
thread_id string ID des threads auquel ce message appartient. Yes

énumération d’objet : MessageObjectType

Value Description
thread.message Type d’objet message qui est thread.message

status Enum : MessageObjectStatus

Value Description
in_progress
incomplete
completed

enum de rôle : MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.

Name Type Description Required Default
delta object Delta contenant les champs qui ont changé sur le message. Yes
└─ content array Contenu du message dans le tableau de texte et/ou d’images. No
└─ role string Entité qui a produit le message. L’un d’entre user eux ou assistant. No
id string Identificateur du message, qui peut être référencé dans les points de terminaison d’API. Yes
object string Type d’objet, qui est toujours thread.message.delta. Yes

object Enum : MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Liste des fichiers joints au message et outils auxquels ils doivent être ajoutés. No
content string Contenu du message. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
role string Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes :
- user: indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.
- assistant: indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’Assistant dans la conversation.
Yes

role Enum : CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum : DeleteMessageResponseObject

Value Description
thread.message.deleted État de l’objet de réponse de message de suppression

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Name Type Description Required Default
image_file object Yes
└─ file_id string ID de fichier de l’image dans le contenu du message. No
type string Toujours image_file. Yes

type Enum : MessageContentImageFileObjectType

Value Description
image_file Type de fichier image de contenu du message

messageContentTextObject

Contenu texte qui fait partie d’un message.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ value string Données qui composent le texte. No
type string Toujours text. Yes

type Enum : messageContentTextObjectType

Value Description
text Type d’objet texte du contenu du message

messageContentTextAnnotationsFileCitationObject

Citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « récupération » pour rechercher des fichiers.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└─ file_id string ID du fichier spécifique à partir duquel provient la citation. No
start_index integer Yes
text string Texte dans le contenu du message qui doit être remplacé. Yes
type string Toujours file_citation. Yes

type Enum : FileCitationObjectType

Value Description
file_citation Type d’objet citation de fichier

messageContentTextAnnotationsFilePathObject

URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└─ file_id string ID du fichier généré. No
start_index integer Yes
text string Texte dans le contenu du message qui doit être remplacé. Yes
type string Toujours file_path. Yes

type Enum : FilePathObjectType

Value Description
file_path Type d’objet chemin d’accès au fichier

messageDeltaContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Name Type Description Required Default
image_file object No
└─ file_id string ID de fichier de l’image dans le contenu du message. No
index integer Index du composant de contenu dans le message. Yes
type string Toujours image_file. Yes

type Enum : MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Contenu texte qui fait partie d’un message.

Name Type Description Required Default
index integer Index du composant de contenu dans le message. Yes
text object No
└─ annotations array No
└─ value string Données qui composent le texte. No
type string Toujours text. Yes

type Enum : MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.

Name Type Description Required Default
end_index integer No
file_citation object No
└─ file_id string ID du fichier spécifique à partir duquel provient la citation. No
└─ quote string Guillemet spécifique dans le fichier. No
index integer Index de l’annotation dans la partie de contenu de texte. Yes
start_index integer No
text string Texte dans le contenu du message qui doit être remplacé. No
type string Toujours file_citation. Yes

type Enum : MessageDeltaContentTextAnnotationsFileCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.

Name Type Description Required Default
end_index integer No
file_path object No
└─ file_id string ID du fichier généré. No
index integer Index de l’annotation dans la partie de contenu de texte. Yes
start_index integer No
text string Texte dans le contenu du message qui doit être remplacé. No
type string Toujours file_path. Yes

type Enum : MessageDeltaContentTextAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Représente une étape dans l’exécution d’une exécution.

Name Type Description Required Default
assistant_id string ID de l’Assistant associé à l’étape d’exécution. Yes
cancelled_at integer Horodatage Unix (en secondes) pour l’annulation de l’étape d’exécution. Yes
completed_at integer Horodatage Unix (en secondes) pour l’exécution de l’étape d’exécution. Yes
created_at integer Horodatage Unix (en secondes) pour la création de l’étape d’exécution. Yes
expired_at integer Horodatage Unix (en secondes) pour l’expiration de l’étape d’exécution. Une étape est considérée comme expirée si l’exécution parente a expiré. Yes
failed_at integer Horodatage Unix (en secondes) pour lequel l’étape d’exécution a échoué. Yes
id string Identificateur de l’étape d’exécution, qui peut être référencé dans les points de terminaison d’API. Yes
last_error object Dernière erreur associée à cette étape d’exécution. null Sera en l’absence d’erreurs. Yes
└─ code string L’un d’entre server_error eux ou rate_limit_exceeded. No
└─ message string Description lisible par l’homme de l’erreur. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
Yes
object string Type d’objet, qui est toujours assistant.run.step. Yes
run_id string ID de l’exécution dont fait partie cette étape d’exécution. Yes
status string État de l’exécution, qui peut être in_progresssoit , , cancelledfailed, , completedou expired. Yes
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Détails de l’étape d’exécution. Yes
thread_id string ID des threads qui ont été exécutés. Yes
type string Type d’étape d’exécution, qui peut être soit message_creation ou tool_calls. Yes

object Enum : RunStepObjectType

Value Description
assistant.run.step Type d’objet, qui est toujours assistant.run.step

type Enum : RunStepObjectType

Value Description
message_creation Étape d’exécution message_creation
tool_calls Étape d’exécution tool_calls

status Enum : RunStepObjectStatus

Value Description
in_progress État de l’exécution in_progress
cancelled État de l’exécution annulée
failed État de l’exécution annulée
completed État de l’exécution annulée
expired État de l’exécution annulée

runStepDeltaObject

Représente un delta d’étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.

Name Type Description Required Default
delta object Delta contenant les champs qui ont changé lors de l’étape d’exécution. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Détails de l’étape d’exécution. No
id string Identificateur de l’étape d’exécution, qui peut être référencé dans les points de terminaison d’API. Yes
object string Type d’objet, qui est toujours thread.run.step.delta. Yes

object Enum : RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Name Type Description Required Default
message_creation object Yes
└─ message_id string ID du message créé par cette étape d’exécution. No
type string Toujours message_creation. Yes

type Enum : RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Détails de la création du message à l’étape d’exécution.

Name Type Description Required Default
message_creation object No
└─ message_id string ID du message créé par cette étape d’exécution. No
type string Toujours message_creation. Yes

type Enum : RunStepDeltaStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Détails de l’appel de l’outil.

Name Type Description Required Default
tool_calls array Un tableau d’outils appelle l’étape d’exécution. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreterou retrievalfunction.
Yes
type string Toujours tool_calls. Yes

type Enum : RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Détails de l’appel de l’outil.

Name Type Description Required Default
tool_calls array Un tableau d’outils appelle l’étape d’exécution. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreterou file_searchfunction.
No
type string Toujours tool_calls. Yes

type Enum : RunStepDeltaStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Les détails de l’outil Interpréteur de code appellent l’étape d’exécution.

Name Type Description Required Default
code_interpreter object Définition d’appel de l’outil Interpréteur de code. Yes
└─ input string Entrée de l’appel de l’outil Interpréteur de code. No
└─ outputs array Sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. No
id string ID de l’appel de l’outil. Yes
type string Type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. Yes

type Enum : RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Les détails de l’outil Interpréteur de code appellent l’étape d’exécution.

Name Type Description Required Default
code_interpreter object Définition d’appel de l’outil Interpréteur de code. No
└─ input string Entrée de l’appel de l’outil Interpréteur de code. No
└─ outputs array Sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. No
id string ID de l’appel de l’outil. No
index integer Index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. Yes

type Enum : RunStepDeltaStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Name Type Description Required Default
logs string Sortie de texte de l’appel de l’outil Interpréteur de code. Yes
type string Toujours logs. Yes

type Enum : RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.

Name Type Description Required Default
index integer Index de la sortie dans le tableau de sorties. Yes
logs string Sortie de texte de l’appel de l’outil Interpréteur de code. No
type string Toujours logs. Yes

type Enum : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└─ file_id string ID de fichier de l’image. No
type string Toujours image. Yes

type Enum : RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└─ file_id string ID de fichier de l’image. No
index integer Index de la sortie dans le tableau de sorties. Yes
type string Toujours image. Yes

type Enum : RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Pour l’instant, il s’agit toujours d’un objet vide. Yes
└─ results array Résultats de la recherche de fichiers. No
id string ID de l’objet d’appel d’outil. Yes
type string Type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil. Yes

type Enum : RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Instance de résultat de la recherche de fichiers.

Name Type Description Required Default
content array Contenu du résultat trouvé. Le contenu est inclus uniquement s’il est demandé via le paramètre de requête Include. No
file_id string ID du fichier dans lequel le résultat a été trouvé. Yes
file_name string Nom du fichier dans lequel le résultat a été trouvé. Yes
score number Score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Pour l’instant, il s’agit toujours d’un objet vide. Yes
id string ID de l’objet d’appel d’outil. No
index integer Index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Type d’appel d’outil. Cela va toujours être retrieval pour ce type d’appel d’outil. Yes

type Enum : RunStepDeltaStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Définition de la fonction appelée. Yes
└─ arguments string Arguments passés à la fonction. No
└─ name string Nom de la fonction. No
└─ output string Sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. No
id string ID de l’objet d’appel d’outil. Yes
type string Type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. Yes

type Enum : RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object Définition de la fonction appelée. No
└─ arguments string Arguments passés à la fonction. No
└─ name string Nom de la fonction. No
└─ output string Sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. No
id string ID de l’objet d’appel d’outil. No
index integer Index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. Yes

type Enum : RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

Stratégie d’expiration d’un magasin de vecteurs.

Name Type Description Required Default
anchor string Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at. Yes
days integer Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. Yes

ancre Enum : VectorStoreExpirationAfterAnchor

Value Description
last_active_at Horodatage d’ancre après lequel la stratégie d’expiration s’applique.

vectorStoreObject

Un magasin vectoriel est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search .

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le magasin de vecteurs a été créé. Yes
expires_after vectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
expires_at integer Horodatage Unix (en secondes) pour l’expiration du magasin vectoriel. No
file_counts object Yes
└─ cancelled integer Nombre de fichiers annulés. No
└─ completed integer Nombre de fichiers qui ont été traités avec succès. No
└─ failed integer Nombre de fichiers qui n’ont pas pu être traité. No
└─ in_progress integer Nombre de fichiers en cours de traitement. No
└─ total integer Nombre total de fichiers. No
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
last_active_at integer Horodatage Unix (en secondes) pour lequel le magasin vectoriel a été actif pour la dernière fois. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
Yes
name string Nom du magasin vectoriel. Yes
object enum Type d’objet, qui est toujours vector_store.
Valeurs possibles : vector_store
Yes
status string État du magasin vectoriel, qui peut être soit expired, in_progresssoit completed. L’état indique completed que le magasin vectoriel est prêt à être utilisé. Yes
usage_bytes integer Nombre total d’octets utilisés par les fichiers dans le magasin vectoriel. Yes

status Enum : VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. Applicable uniquement s’il file_ids n’est pas vide. No
expires_after vectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
file_ids array Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
name string Nom du magasin vectoriel. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter Stratégie d’expiration d’un magasin de vecteurs. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères.
No
name string Nom du magasin vectoriel. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum : DeleteVectorStoreResponseObject

Value Description
vector_store.deleted État de l’objet réponse du magasin de vecteurs de suppression

vectorStoreFileObject

Liste de fichiers attachés à un magasin de vecteurs.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. Applicable uniquement s’il file_ids n’est pas vide. No
created_at integer Horodatage Unix (en secondes) pour lequel le fichier de magasin de vecteurs a été créé. Yes
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
last_error object Dernière erreur associée à ce fichier de magasin de vecteurs. null Sera en l’absence d’erreurs. Yes
└─ code string Un ou server_errorinvalid_fileunsupported_file. No
└─ message string Description lisible par l’homme de l’erreur. No
object string Type d’objet, qui est toujours vector_store.file. Yes
status string État du fichier de magasin de vecteurs, qui peut être in_progresssoit , completed, cancelledou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé. Yes
usage_bytes integer Utilisation totale du magasin de vecteurs en octets. Notez que cela peut être différent de la taille du fichier d’origine. Yes
vector_store_id string ID du magasin de vecteurs auquel le fichier est attaché. Yes

object Enum : VectorStoreFileObjectType

Value Description
vector_store.file

status Enum : VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Cette opération est retournée lorsque la stratégie de segmentation est inconnue. En règle générale, cela est dû au fait que le fichier a été indexé avant l’introduction du chunking_strategy concept dans l’API.

Name Type Description Required Default
type string Toujours other. Yes

type Enum : OtherChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Toujours static. Yes

type Enum : StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Nombre de jetons qui se chevauchent entre des blocs. La valeur par défaut est 400.

Notez que le chevauchement ne doit pas dépasser la moitié de max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Nombre maximal de jetons dans chaque bloc. La valeur par défaut est 800. La valeur minimale est 100 et la valeur maximale est 4096. Yes

autoChunkingStrategyRequestParam

Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400.

Name Type Description Required Default
type enum Toujours auto.
Valeurs possibles : auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Toujours static.
Valeurs possibles : static
Yes

chunkingStrategyRequestParam

Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie.

Ce composant peut être l’un des éléments suivants :

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_id string ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

object Enum : DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Lot de fichiers attachés à un magasin vectoriel.

Name Type Description Required Default
created_at integer Horodatage Unix (en secondes) pour lequel le lot de fichiers de magasin de vecteurs a été créé. Yes
file_counts object Yes
└─ cancelled integer Nombre de fichiers annulés. No
└─ completed integer Nombre de fichiers qui ont été traités. No
└─ failed integer Nombre de fichiers qui n’ont pas pu être traité. No
└─ in_progress integer Nombre de fichiers en cours de traitement. No
└─ total integer Nombre total de fichiers. No
id string Identificateur, qui peut être référencé dans les points de terminaison d’API. Yes
object string Type d’objet, qui est toujours vector_store.file_batch. Yes
status string État du lot de fichiers de magasin de vecteurs, qui peut être in_progresssoit , completedsoit cancelledfailed. Yes
vector_store_id string ID du magasin de vecteurs auquel le fichier est attaché. Yes

object Enum : VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

status Enum : VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. No
file_ids array Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. Yes

assistantStreamEvent

Représente un événement émis lors de la diffusion en continu d’une exécution.

Chaque événement d’un flux d’événements envoyés par un serveur a une propriété et event une data propriété :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Nous émettons des événements chaque fois qu’un nouvel objet est créé, passe à un nouvel état ou est diffusé en continu dans des parties (deltas). Par exemple, nous émettons thread.run.created lorsqu’une nouvelle exécution est créée, thread.run.completed lorsqu’une exécution se termine, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une exécution, nous émettons un thread.message.created event, un thread.message.in_progress événement, de nombreux thread.message.delta événements et enfin un thread.message.completed événement.

Nous pouvons ajouter des événements supplémentaires au fil du temps. Nous vous recommandons donc de gérer correctement les événements inconnus dans votre code.

Ce composant peut être l’un des éléments suivants :

threadStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.created

Se produit lorsqu’un thread est créé.

Name Type Description Required Default
data threadObject Représente un thread qui contient des messages. Yes
event string Yes

Data: threadObject

Enum d’événement : ThreadStreamEventEnum

Value Description
thread.created Événement créé par le thread

runStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.run.created

Se produit lorsqu’une nouvelle exécution est créée.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Se produit lorsqu’une exécution passe à un queued état.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Se produit lorsqu’une exécution passe à un in_progress état.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Se produit lorsqu’une exécution passe à un requires_action état.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Se produit lorsqu’une exécution est terminée.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventCompleted

Value Description
thread.run.completed

thread.run.failed

Se produit lorsqu’une exécution échoue.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Se produit lorsqu’une exécution passe à un cancelling état.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Se produit lorsqu’une exécution est annulée.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Enum d’événement : RunStreamEventCancelled

Value Description
thread.run.cancelled

thread.run.expired

Se produit lorsqu’une exécution expire.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Énumération d’événements : RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.run.step.created

Se produit lorsqu’une étape d’exécution est créée.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une exécution.
Yes
event string Yes

Data: runStepObject

Enum d’événement : RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Se produit lorsqu’une étape d’exécution passe à un in_progress état.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une exécution.
Yes
event string Yes

Data: runStepObject

Énumération d’événements : RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Se produit lorsque des parties d’une étape d’exécution sont diffusées en continu.

Name Type Description Required Default
data runStepDeltaObject Représente un delta d’étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.
Yes
event string Yes

Data: runStepDeltaObject

Enum d’événement : RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Se produit lorsqu’une étape d’exécution est terminée.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une exécution.
Yes
event string Yes

Data: runStepObject

Énumération d’événements : RunStepStreamEventCompleted

Value Description
thread.run.step.completed

thread.run.step.failed

Se produit lorsqu’une étape d’exécution échoue.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une exécution.
Yes
event string Yes

Data: runStepObject

Énumération d’événements : RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Se produit lorsqu’une étape d’exécution est annulée.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une exécution.
Yes
event string Yes

Data: runStepObject

Enum d’événement : RunStepStreamEventCancelled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Se produit lorsqu’une étape d’exécution expire.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une exécution.
Yes
event string Yes

Data: runStepObject

Énumération d’événements : RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Ce composant peut être l’un des éléments suivants :

thread.message.created

Se produit lorsqu’un message est créé.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Énumération d’événements : MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Se produit lorsqu’un message passe à un in_progress état.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Énumération d’événements : MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Se produit lorsque des parties d’un message sont diffusées en continu.

Name Type Description Required Default
data messageDeltaObject Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.
Yes
event string Yes

Data: messageDeltaObject

Énumération d’événements : MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Se produit lorsqu’un message est terminé.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Énumération d’événements : MessageStreamEventCompleted

Value Description
thread.message.completed

thread.message.incomplete

Se produit lorsqu’un message se termine avant sa fin.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Énumération d’événements : MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Ce composant peut être l’un des éléments suivants :

Click

Action de clic.

Name Type Description Required Default
button enum Indique le bouton de la souris enfoncé pendant le clic. Un des left, , right, wheel, backou forward.

Valeurs possibles : left, , rightwheel, back,forward
Yes
type enum Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours définie sur click.

Valeurs possibles : click
Yes
x integer Coordonnée x où le clic s’est produit.
Yes
y integer Coordonnée y où le clic s’est produit.
Yes

CodeInterpreterFileOutput

Sortie d’un appel d’outil d’interpréteur de code qui est un fichier.

Name Type Description Required Default
files array Yes
type enum Type de sortie du fichier d’interpréteur de code. Toujours files.

Valeurs possibles : files
Yes

CodeInterpreterTextOutput

Sortie d’un appel d’outil d’interpréteur de code qui est du texte.

Name Type Description Required Default
logs string Journaux de l’appel de l’outil interpréteur de code.
Yes
type enum Type de sortie du texte de l’interpréteur de code. Toujours logs.

Valeurs possibles : logs
Yes

CodeInterpreterTool

Outil qui exécute du code.

Name Type Description Required Default
file_ids array ID des fichiers sur utilisant le code.
Yes
type enum Type de l’outil d’interpréteur de code. Toujours code_interpreter.

Valeurs possibles : code_interpreter
Yes

CodeInterpreterToolCall

Un appel d’outil pour exécuter du code.

Name Type Description Required Default
code string Code à exécuter.
Yes
id string ID unique de l’appel de l’outil interpréteur de code.
Yes
results array Résultats de l’appel de l’outil interpréteur de code.
Yes
status enum État de l’appel de l’outil interpréteur de code.

Valeurs possibles : in_progress, , interpretingcompleted
Yes
type enum Type de l’appel de l’outil interpréteur de code. Toujours code_interpreter_call.

Valeurs possibles : code_interpreter_call
Yes

CodeInterpreterToolOutput

Ce composant peut être l’un des éléments suivants :

ComparisonFilter

Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.

Name Type Description Required Default
key string Clé à comparer à la valeur. Yes
type enum Spécifie l’opérateur de comparaison : eq, , negt, gtelt, . lte
- eq:Égale
- ne: non égal
- gt: supérieur à
- gte: supérieur ou égal à
- lt: inférieur à
- lte: inférieur ou égal à

Valeurs possibles : eq, , negt, gte, ltlte
Yes
value chaîne ou nombre ou booléen Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. Yes

CompoundFilter

Combinez plusieurs filtres à l’aide and ou or.

Name Type Description Required Default
filters array Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. Yes
type enum Type d’opération : and ou or.
Valeurs possibles : and, or
Yes

ComputerAction

Ce composant peut être l’un des éléments suivants :

ComputerScreenshotImage

Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.

Name Type Description Required Default
file_id string Identificateur d’un fichier chargé qui contient la capture d’écran. No
image_url string URL de l’image de capture d’écran. No
type enum Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours définie sur computer_screenshot.

Valeurs possibles : computer_screenshot
Yes

ComputerTool

Outil qui contrôle un ordinateur virtuel.

Name Type Description Required Default
display_height number Hauteur de l’affichage de l’ordinateur.
Yes
display_width number Largeur de l’affichage de l’ordinateur.
Yes
environment enum Type d’environnement d’ordinateur à contrôler.

Valeurs possibles : mac, , windowsubuntu,browser
Yes
type enum Type de l’outil d’utilisation de l’ordinateur. Toujours computer_use_preview.

Valeurs possibles : computer-use-preview
Yes

ComputerToolCall

Un appel d’outil à un outil d’utilisation d’ordinateur.

Name Type Description Required Default
action ComputerAction Yes
call_id string Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie.
Yes
id string ID unique de l’appel d’ordinateur. Yes
pending_safety_checks array Vérifications de sécurité en attente pour l’appel de l’ordinateur.
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type de l’appel d’ordinateur. Toujours computer_call.
Valeurs possibles : computer_call
Yes

ComputerToolCallOutput

Sortie d’un appel d’outil informatique.

Name Type Description Required Default
acknowledged_safety_checks array Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur.
No
call_id string ID de l’appel de l’outil informatique qui a produit la sortie.
Yes
id string ID de la sortie de l’appel de l’outil informatique.
No
output ComputerScreenshotImage Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
Yes
status enum État de l’entrée de message. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments d’entrée sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.

Valeurs possibles : computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur.
No
call_id string ID de l’appel de l’outil informatique qui a produit la sortie.
Yes
id string ID unique de la sortie de l’outil d’appel d’ordinateur.
Yes
output ComputerScreenshotImage Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
Yes
status enum État de l’entrée de message. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments d’entrée sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.

Valeurs possibles : computer_call_output
Yes

ComputerToolCallSafetyCheck

Contrôle de sécurité en attente pour l’appel de l’ordinateur.

Name Type Description Required Default
code string Type du contrôle de sécurité en attente. Yes
id string ID de la vérification de sécurité en attente. Yes
message string Détails sur le contrôle de sécurité en attente. Yes

Content

Contenu d’entrée et de sortie multimodaux.

Ce composant peut être l’un des éléments suivants :

Coordinate

Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.

Name Type Description Required Default
x integer The x-coordinate.
Yes
y integer The y-coordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Modèle utilisé pour générer les réponses. No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input chaîne ou tableau Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. Yes
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.
No True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement. No
store boolean Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API.
No True
stream boolean Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. No False
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés
No
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque le
réponse à l’ajustement de la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No

DoubleClick

Action double-clic.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action en double-clic, cette propriété est toujours définie double_clicksur .

Valeurs possibles : double_click
Yes
x integer Coordonnée x où le double-clic s’est produit.
Yes
y integer Coordonnée y où le double-clic s’est produit.
Yes

Drag

Action glisser.

Name Type Description Required Default
path array Tableau de coordonnées représentant le chemin d’accès de l’action glisser. Les coordonnées apparaissent sous la forme d’un tableau d’objets, par exemple[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours définie sur drag.

Valeurs possibles : drag
Yes

EasyInputMessage

Entrée de message au modèle avec un rôle indiquant l’instruction suivante. Les instructions fournies avec le rôle ou developer le system rôle sont prioritaires sur les instructions fournies avec le user rôle. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.

Name Type Description Required Default
content string ou InputMessageContentList Texte, image ou entrée audio du modèle utilisé pour générer une réponse.
Peut également contenir des réponses d’assistant précédentes.
Yes
role enum Rôle de l’entrée de message. Un des user, , assistant, systemou developer.

Valeurs possibles : user, , assistantsystem,developer
Yes
type enum Type de l’entrée de message. Toujours message.

Valeurs possibles : message
No

FileCitation

Citation à un fichier.

Name Type Description Required Default
file_id string ID du fichier.
Yes
index integer Index du fichier dans la liste des fichiers.
Yes
type enum Type de la citation de fichier. Toujours file_citation.

Valeurs possibles : file_citation
Yes

FilePath

Chemin d’accès à un fichier.

Name Type Description Required Default
file_id string ID du fichier.
Yes
index integer Index du fichier dans la liste des fichiers.
Yes
type enum Type du chemin d’accès au fichier. Toujours file_path.

Valeurs possibles : file_path
Yes

FileSearchRanker

Ranker à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, utilisez l’éditeur de auto classement.

Property Value
Description Ranker à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, utilisez l’éditeur de auto classement.
Type string
Values auto
default_2024_08_21

FileSearchTool

Outil qui recherche le contenu pertinent à partir de fichiers chargés.

Name Type Description Required Default
filters ComparisonFilter ou CompoundFilter Filtre à appliquer en fonction des attributs de fichier. No
max_num_results integer Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus.
No
ranking_options object Options de classement pour la recherche. No
└─ ranker enum Ranker à utiliser pour la recherche de fichiers.
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1.
Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats.
No 0
type enum Type de l’outil de recherche de fichiers. Toujours file_search.

Valeurs possibles : file_search
Yes
vector_store_ids array ID des magasins vectoriels à rechercher.
Yes

FileSearchToolCall

Résultats d’un appel d’outil de recherche de fichiers.

Name Type Description Required Default
id string ID unique de l’appel de l’outil de recherche de fichiers.
Yes
queries array Requêtes utilisées pour rechercher des fichiers.
Yes
results array Résultats de l’appel de l’outil de recherche de fichiers.
No
status enum État de l’appel de l’outil de recherche de fichiers. Un des in_progress, ou searchingincompletefailed,

Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed
Yes
type enum Type de l’appel de l’outil de recherche de fichiers. Toujours file_search_call.

Valeurs possibles : file_search_call
Yes

FunctionTool

Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.

Name Type Description Required Default
description string Description de la fonction. Utilisé par le modèle pour déterminer s’il faut ou non appeler la fonction.
No
name string Nom de la fonction à appeler.
Yes
parameters object Objet de schéma JSON décrivant les paramètres de la fonction.
Yes
strict boolean Indique s’il faut appliquer une validation stricte des paramètres. Valeur par défaut true.
Yes
type enum Type de l’outil de fonction. Toujours function.

Valeurs possibles : function
Yes

FunctionToolCall

Un appel d’outil pour exécuter une fonction.

Name Type Description Required Default
arguments string Chaîne JSON des arguments à passer à la fonction.
Yes
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle.
Yes
id string ID unique de l’appel de l’outil de fonction.
Yes
name string Nom de la fonction à exécuter.
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’appel de l’outil de fonction. Toujours function_call.

Valeurs possibles : function_call
Yes

FunctionToolCallOutput

Sortie d’un appel d’outil de fonction.

Name Type Description Required Default
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle.
Yes
id string ID unique de la sortie de l’appel de l’outil de fonction. Renseigné lorsque cet élément est retourné via l’API.
No
output string Chaîne JSON de la sortie de l’appel de l’outil de fonction.
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de sortie de l’appel de l’outil de fonction. Toujours function_call_output.

Valeurs possibles : function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string ID unique de l’appel de l’outil de fonction généré par le modèle.
Yes
id string ID unique de la sortie de l’outil d’appel de fonction.
Yes
output string Chaîne JSON de la sortie de l’appel de l’outil de fonction.
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de sortie de l’appel de l’outil de fonction. Toujours function_call_output.

Valeurs possibles : function_call_output
Yes

includable

Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :

  • file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
  • message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
  • computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
Property Value
Description Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.
- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.
- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Entrée audio au modèle.

Name Type Description Required Default
data string Données audio encodées en base64.
Yes
format enum Format des données audio. Actuellement, les formats pris en charge sont mp3 et wav.

Valeurs possibles : mp3, wav
Yes
type enum Type de l’élément d’entrée. Toujours input_audio.

Valeurs possibles : input_audio
Yes

InputContent

Ce composant peut être l’un des éléments suivants :

InputFile

Entrée de fichier dans le modèle.

Name Type Description Required Default
file_data string Contenu du fichier à envoyer au modèle.
No
file_id string ID du fichier à envoyer au modèle.
No
filename string Nom du fichier à envoyer au modèle.
No
type enum Type de l’élément d’entrée. Toujours input_file.

Valeurs possibles : input_file
Yes

InputImage

Entrée d’image dans le modèle.

Name Type Description Required Default
detail enum Niveau de détail de l’image à envoyer au modèle. Un des high, lowou auto. La valeur par défaut est auto.

Valeurs possibles : high, , lowauto
Yes
file_id string ID du fichier à envoyer au modèle.
No
image_url string URL de l’image à envoyer au modèle. Une URL complète ou une image encodée en base64 dans une URL de données.
No
type enum Type de l’élément d’entrée. Toujours input_image.

Valeurs possibles : input_image
Yes

InputItem

Ce composant peut être l’un des éléments suivants :

InputMessage

Entrée de message au modèle avec un rôle indiquant l’instruction suivante. Les instructions fournies avec le rôle ou developer le system rôle sont prioritaires sur les instructions fournies avec le user rôle.

Name Type Description Required Default
content InputMessageContentList Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent
types.
Yes
role enum Rôle de l’entrée de message. Un des user, systemou developer.

Valeurs possibles : user, , systemdeveloper
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’entrée de message. Toujours défini sur message.

Valeurs possibles : message
No

InputMessageContentList

Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant différents types de contenu.

Aucune propriété définie pour ce composant.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent
types.
Yes
id string ID unique de l’entrée de message.
Yes
role enum Rôle de l’entrée de message. Un des user, systemou developer.

Valeurs possibles : user, , systemdeveloper
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’entrée de message. Toujours défini sur message.

Valeurs possibles : message
No

InputText

Entrée de texte dans le modèle.

Name Type Description Required Default
text string Entrée de texte dans le modèle.
Yes
type enum Type de l’élément d’entrée. Toujours input_text.

Valeurs possibles : input_text
Yes

Item

Élément de contenu utilisé pour générer une réponse.

Ce composant peut être l’un des éléments suivants :

ItemReference

Identificateur interne d’un élément à référencer.

Name Type Description Required Default
id string ID de l’élément à référencer.
Yes
type enum Type d’élément à référencer. Toujours item_reference.

Valeurs possibles : item_reference
Yes

ItemResource

Élément de contenu utilisé pour générer une réponse.

Ce composant peut être l’un des éléments suivants :

KeyPress

Une collection de touches de touches que le modèle souhaite effectuer.

Name Type Description Required Default
keys array La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé.
Yes
type enum Spécifie le type d’événement. Pour une action keypress, cette propriété est toujours définie keypresssur .

Valeurs possibles : keypress
Yes

Metadata

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.

Aucune propriété définie pour ce composant.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
No
model string Modèle utilisé pour générer les réponses. No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
No 1
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
No 1
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

Move

Action de déplacement de la souris.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours définie sur move.

Valeurs possibles : move
Yes
x integer Coordonnée x à déplacer.
Yes
y integer Coordonnée y à déplacer.
Yes

OutputAudio

Sortie audio du modèle.

Name Type Description Required Default
data string Données audio encodées en base64 à partir du modèle.
Yes
transcript string Transcription des données audio du modèle.
Yes
type enum Type de l’audio de sortie. Toujours output_audio.

Valeurs possibles : output_audio
Yes

OutputContent

Ce composant peut être l’un des éléments suivants :

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Chaîne JSON des arguments à passer à la fonction.
Yes
call_id string Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie.
Yes
content array Contenu du texte de raisonnement.
Yes
id string Identificateur unique du contenu du raisonnement.
Yes
name string Nom de la fonction à exécuter.
Yes
pending_safety_checks array Vérifications de sécurité en attente pour l’appel de l’ordinateur.
Yes
queries array Requêtes utilisées pour rechercher des fichiers.
Yes
results array Résultats de l’appel de l’outil de recherche de fichiers.
No
role enum Rôle du message de sortie. Toujours assistant.

Valeurs possibles : assistant
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type de l’objet. Toujours reasoning.

Valeurs possibles : reasoning
Yes

OutputMessage

Message de sortie du modèle.

Name Type Description Required Default
content array Contenu du message de sortie.
Yes
id string ID unique du message de sortie.
Yes
role enum Rôle du message de sortie. Toujours assistant.

Valeurs possibles : assistant
Yes
status enum État de l’entrée de message. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments d’entrée sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
Yes
type enum Type du message de sortie. Toujours message.

Valeurs possibles : message
Yes

OutputText

Sortie de texte du modèle.

Name Type Description Required Default
annotations array Annotations de la sortie de texte.
Yes
text string Sortie de texte du modèle.
Yes
type enum Type du texte de sortie. Toujours output_text.

Valeurs possibles : output_text
Yes

RealtimeSessionCreateRequest

Configuration de l’objet session en temps réel.

Name Type Description Required Default
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.
Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, la valeur par défaut est désactivée et peut être définie pour null désactiver une seule fois. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model string Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1.
No
└─ prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
instructions string Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.

Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
model string Nom du déploiement utilisé pour cette session.
No
output_audio_format enum Format de l’audio de sortie. Les options sont pcm16, g711_ulawou g711_alaw.
Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales.
No 0.8
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction.
No auto
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de tour.

Valeurs possibles : server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Nouvelle configuration de session en temps réel, avec une clé éphémère. La durée de vie par défaut des clés est d’une minute.

Name Type Description Required Default
client_secret object Clé éphémère retournée par l’API. Yes
└─ expires_at integer Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute.
No
└─ value string Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur.
No
input_audio_format string Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, la valeur par défaut est désactivée et peut être définie pour null désactiver une seule fois. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via Whisper et doit être traitée comme des instructions approximatives plutôt que la représentation comprise par le modèle.
No
└─ model string Le modèle à utiliser pour la transcription whisper-1 est le seul modèle actuellement pris en charge.
No
instructions string Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité.
Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
output_audio_format string Format de l’audio de sortie. Les options sont pcm16, g711_ulawou g711_alaw.
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0.8.
No
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction.
No
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour. Peut être défini pour null désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
No
└─ prefix_padding_ms integer Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms.
No
└─ silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No
└─ threshold number Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type string Le type de détection de tour n’est server_vad actuellement pris en charge que.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configuration de l’objet de session de transcription en temps réel.

Name Type Description Required Default
include array Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants :
- item.input_audio_transcription.logprobs
No
input_audio_format enum Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.
Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.

Valeurs possibles : pcm16, , g711_ulawg711_alaw
No
input_audio_noise_reduction object Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.
La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle.
Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée.
No
└─ type enum Type de réduction du bruit. near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription.
No
└─ language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model enum Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.

Valeurs possibles : gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots clés.
Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ».
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
turn_detection object Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement. auto est la valeur par défaut et équivaut à medium.

Valeurs possibles : low, , mediumhigh,auto
No
└─ interrupt_response boolean Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type enum Type de détection de tour.

Valeurs possibles : server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Nouvelle configuration de session de transcription en temps réel.

Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. La durée de vie par défaut des clés est d’une minute. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.

Name Type Description Required Default
client_secret object Clé éphémère retournée par l’API. Présente uniquement lorsque la session est créée sur le serveur via l’API REST.
Yes
└─ expires_at integer Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute.
No
└─ value string Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur.
No
input_audio_format string Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.
No
input_audio_transcription object Configuration du modèle de transcription.
No
└─ language string Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model enum Modèle à utiliser pour la transcription. Peut être gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15ou whisper-1.

Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1
No
└─ prompt string Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio.
No
modalities L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"].
No
turn_detection object Configuration pour la détection de tour. Peut être défini pour null désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur.
No
└─ prefix_padding_ms integer Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms.
No
└─ silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur.
No
└─ threshold number Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants.
No
└─ type string Le type de détection de tour n’est server_vad actuellement pris en charge que.
No

Reasoning

Options de configuration pour les modèles de raisonnement.

Name Type Description Required Default
effort ReasoningEffort Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
Yes medium
summary enum Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
L’un d’entre concise eux ou detailed.

Valeurs possibles : concise, detailed
No

ReasoningItem

Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse.

Name Type Description Required Default
content array Contenu du texte de raisonnement.
Yes
id string Identificateur unique du contenu du raisonnement.
Yes
status enum État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, , completedincomplete
No
type enum Type de l’objet. Toujours reasoning.

Valeurs possibles : reasoning
Yes

Refusal

Refus du modèle.

Name Type Description Required Default
refusal string Explication du refus du modèle.
Yes
type enum Type de refus. Toujours refusal.

Valeurs possibles : refusal
Yes

response

Name Type Description Required Default
created_at number Horodatage Unix (en secondes) de la création de cette réponse.
Yes
error ResponseError Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
Yes
id string Identificateur unique pour cette réponse.
Yes
incomplete_details object Détails sur la raison pour laquelle la réponse est incomplète.
Yes
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
Yes
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation.
No
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Yes
model string Modèle utilisé pour générer les réponses. Yes
object enum Type d’objet de cette ressource - toujours défini sur response.

Valeurs possibles : response
Yes
output array Tableau d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk.
Yes
output_text string Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.
Pris en charge dans les kits SDK Python et JavaScript.
No
parallel_tool_calls boolean Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle.
Yes True
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement.
No
status enum État de la génération de réponse. Un des completed, , failed, in_progressou incomplete.

Valeurs possibles : completed, , failedin_progress,incomplete
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe.
Nous vous recommandons généralement de modifier cela ou top_p pas les deux.
Yes 1
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
Yes
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés
Yes
top_p number Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés.

Nous vous recommandons généralement de modifier cela ou temperature pas les deux.
Yes 1
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No
usage ResponseUsage Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
No
user string Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

ResponseAudioDeltaEvent

Émis lorsqu’il existe une réponse audio partielle.

Name Type Description Required Default
delta string Segment d’octets audio de réponse encodés en Base64.
Yes
type enum Type de l’événement. Toujours response.audio.delta.

Valeurs possibles : response.audio.delta
Yes

ResponseAudioDoneEvent

Émis lorsque la réponse audio est terminée.

Name Type Description Required Default
type enum Type de l’événement. Toujours response.audio.done.

Valeurs possibles : response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Émis lorsqu’il existe une transcription partielle de l’audio.

Name Type Description Required Default
delta string Transcription partielle de la réponse audio.
Yes
type enum Type de l’événement. Toujours response.audio.transcript.delta.

Valeurs possibles : response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Émis lorsque la transcription audio complète est terminée.

Name Type Description Required Default
type enum Type de l’événement. Toujours response.audio.transcript.done.

Valeurs possibles : response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Émis lorsqu’un extrait de code partiel est ajouté par l’interpréteur de code.

Name Type Description Required Default
delta string Extrait de code partiel ajouté par l’interpréteur de code.
Yes
output_index integer Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours.
Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.code.delta.

Valeurs possibles : response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Émis lorsque la sortie de l’extrait de code est finalisée par l’interpréteur de code.

Name Type Description Required Default
code string Sortie finale de l’extrait de code par l’interpréteur de code.
Yes
output_index integer Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours.
Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.code.done.

Valeurs possibles : response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Émis lorsque l’appel de l’interpréteur de code est terminé.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
output_index integer Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours.
Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.completed.

Valeurs possibles : response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Émis lorsqu’un appel d’interpréteur de code est en cours.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
output_index integer Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours.
Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.in_progress.

Valeurs possibles : response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Émis lorsque l’interpréteur de code interprète activement l’extrait de code.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
output_index integer Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours.
Yes
type enum Type de l’événement. Toujours response.code_interpreter_call.interpreting.

Valeurs possibles : response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Émis lorsque la réponse du modèle est terminée.

Name Type Description Required Default
response response Yes
type enum Type de l’événement. Toujours response.completed.

Valeurs possibles : response.completed
Yes

ResponseContentPartAddedEvent

Émis lorsqu’un nouveau composant de contenu est ajouté.

Name Type Description Required Default
content_index integer Index de la partie de contenu qui a été ajoutée.
Yes
item_id string ID de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
output_index integer Index de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
part OutputContent Yes
type enum Type de l’événement. Toujours response.content_part.added.

Valeurs possibles : response.content_part.added
Yes

ResponseContentPartDoneEvent

Émis lorsqu’un composant de contenu est terminé.

Name Type Description Required Default
content_index integer Index de la partie de contenu effectuée.
Yes
item_id string ID de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
output_index integer Index de l’élément de sortie auquel la partie de contenu a été ajoutée.
Yes
part OutputContent Yes
type enum Type de l’événement. Toujours response.content_part.done.

Valeurs possibles : response.content_part.done
Yes

ResponseCreatedEvent

Événement émis lors de la création d’une réponse.

Name Type Description Required Default
response response Yes
type enum Type de l’événement. Toujours response.created.

Valeurs possibles : response.created
Yes

ResponseError

Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.

Name Type Description Required Default
code ResponseErrorCode Code d’erreur de la réponse.
Yes
message string Description lisible par l’homme de l’erreur.
Yes

ResponseErrorCode

Code d’erreur de la réponse.

Property Value
Description Code d’erreur de la réponse.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Émis lorsqu’une erreur se produit.

Name Type Description Required Default
code string Code d’erreur.
Yes
message string Message d’erreur.
Yes
param string Paramètre d’erreur.
Yes
type enum Type de l’événement. Toujours error.

Valeurs possibles : error
Yes

ResponseFailedEvent

Événement émis en cas d’échec d’une réponse.

Name Type Description Required Default
response response Yes
type enum Type de l’événement. Toujours response.failed.

Valeurs possibles : response.failed
Yes

ResponseFileSearchCallCompletedEvent

Émis lorsqu’un appel de recherche de fichiers est terminé (résultats trouvés).

Name Type Description Required Default
item_id string ID de l’élément de sortie lancé par l’appel de recherche de fichier.
Yes
output_index integer Index de l’élément de sortie lancé par l’appel de recherche de fichier.
Yes
type enum Type de l’événement. Toujours response.file_search_call.completed.

Valeurs possibles : response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Émis lorsqu’un appel de recherche de fichiers est lancé.

Name Type Description Required Default
item_id string ID de l’élément de sortie lancé par l’appel de recherche de fichier.
Yes
output_index integer Index de l’élément de sortie lancé par l’appel de recherche de fichier.
Yes
type enum Type de l’événement. Toujours response.file_search_call.in_progress.

Valeurs possibles : response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Émis lorsqu’une recherche de fichier effectue actuellement une recherche.

Name Type Description Required Default
item_id string ID de l’élément de sortie lancé par l’appel de recherche de fichier.
Yes
output_index integer Index de l’élément de sortie que l’appel de recherche de fichier effectue une recherche.
Yes
type enum Type de l’événement. Toujours response.file_search_call.searching.

Valeurs possibles : response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.

Name Type Description Required Default
delta string Delta des arguments d’appel de fonction ajoutés.
Yes
item_id string ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté.
Yes
output_index integer Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté.
Yes
type enum Type de l’événement. Toujours response.function_call_arguments.delta.

Valeurs possibles : response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Émis lorsque des arguments d’appel de fonction sont finalisés.

Name Type Description Required Default
arguments string Arguments d’appel de fonction. Yes
item_id string ID de l’élément. Yes
output_index integer Index de l’élément de sortie. Yes
type enum
Valeurs possibles : response.function_call_arguments.done
Yes

ResponseInProgressEvent

Émis lorsque la réponse est en cours.

Name Type Description Required Default
response response Yes
type enum Type de l’événement. Toujours response.in_progress.

Valeurs possibles : response.in_progress
Yes

ResponseIncompleteEvent

Événement émis lorsqu’une réponse se termine comme incomplète.

Name Type Description Required Default
response response Yes
type enum Type de l’événement. Toujours response.incomplete.

Valeurs possibles : response.incomplete
Yes

responseItemList

Liste des éléments de réponse.

Name Type Description Required Default
data array Liste des éléments utilisés pour générer cette réponse. Yes
first_id string ID du premier élément de la liste. Yes
has_more boolean Indique s’il existe d’autres éléments disponibles. Yes
last_id string ID du dernier élément de la liste. Yes
object enum Le type d’objet retourné doit être list.
Valeurs possibles : list
Yes

ResponseModalities

Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :

["text", "audio"]

Aucune propriété définie pour ce composant.

ResponseModalitiesTextOnly

Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :

["text"]

Cette API prendra bientôt en charge d’autres modalités de sortie, y compris l’audio et les images.

Aucune propriété définie pour ce composant.

ResponseOutputItemAddedEvent

Émis lorsqu’un nouvel élément de sortie est ajouté.

Name Type Description Required Default
item OutputItem Yes
output_index integer Index de l’élément de sortie qui a été ajouté.
Yes
type enum Type de l’événement. Toujours response.output_item.added.

Valeurs possibles : response.output_item.added
Yes

ResponseOutputItemDoneEvent

Émis lorsqu’un élément de sortie est marqué comme terminé.

Name Type Description Required Default
item OutputItem Yes
output_index integer Index de l’élément de sortie marqué comme terminé.
Yes
type enum Type de l’événement. Toujours response.output_item.done.

Valeurs possibles : response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses.
No
max_output_tokens integer Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation.
No
previous_response_id string ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement.
No
text object Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
No
tool_choice ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler.
No
tools array Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir sont les suivantes :

- Outils intégrés
No
truncation enum Stratégie de troncation à utiliser pour la réponse du modèle.
- auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.
- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.

Valeurs possibles : auto, disabled
No

ResponseRefusalDeltaEvent

Émis lorsqu’il existe un texte de refus partiel.

Name Type Description Required Default
content_index integer Index de la partie de contenu à laquelle le texte de refus est ajouté.
Yes
delta string Texte de refus ajouté.
Yes
item_id string ID de l’élément de sortie auquel le texte de refus est ajouté.
Yes
output_index integer Index de l’élément de sortie auquel le texte de refus est ajouté.
Yes
type enum Type de l’événement. Toujours response.refusal.delta.

Valeurs possibles : response.refusal.delta
Yes

ResponseRefusalDoneEvent

Émis lorsque le texte de refus est finalisé.

Name Type Description Required Default
content_index integer Index de la partie de contenu que le texte de refus est finalisé.
Yes
item_id string ID de l’élément de sortie que le texte de refus est finalisé.
Yes
output_index integer Index de l’élément de sortie que le texte de refus est finalisé.
Yes
refusal string Texte de refus finalisé.
Yes
type enum Type de l’événement. Toujours response.refusal.done.

Valeurs possibles : response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Index de l’annotation qui a été ajoutée.
Yes
arguments string Arguments d’appel de fonction. Yes
code string Code d’erreur.
Yes
code_interpreter_call CodeInterpreterToolCall Un appel d’outil pour exécuter du code.
Yes
content_index integer Index de la partie de contenu que le contenu du texte est finalisé.
Yes
delta string Delta de texte ajouté.
Yes
item OutputItem Élément de sortie marqué comme terminé.
Yes
item_id string ID de l’élément de sortie que le contenu du texte est finalisé.
Yes
message string Message d’erreur.
Yes
output_index integer Index de l’élément de sortie que le contenu du texte est finalisé.
Yes
param string Paramètre d’erreur.
Yes
part OutputContent Partie de contenu qui est effectuée.
Yes
refusal string Texte de refus finalisé.
Yes
response response Réponse incomplète.
Yes
text string Contenu texte finalisé.
Yes
type enum Type de l’événement. Toujours response.output_text.done.

Valeurs possibles : response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Émis lorsqu’une annotation de texte est ajoutée.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer Index de l’annotation qui a été ajoutée.
Yes
content_index integer Index de la partie de contenu à laquelle l’annotation de texte a été ajoutée.
Yes
item_id string ID de l’élément de sortie auquel l’annotation de texte a été ajoutée.
Yes
output_index integer Index de l’élément de sortie auquel l’annotation de texte a été ajoutée.
Yes
type enum Type de l’événement. Toujours response.output_text.annotation.added.

Valeurs possibles : response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Émis lorsqu’il existe un delta de texte supplémentaire.

Name Type Description Required Default
content_index integer Index de la partie de contenu à laquelle le delta de texte a été ajouté.
Yes
delta string Delta de texte ajouté.
Yes
item_id string ID de l’élément de sortie auquel le delta de texte a été ajouté.
Yes
output_index integer Index de l’élément de sortie auquel le delta de texte a été ajouté.
Yes
type enum Type de l’événement. Toujours response.output_text.delta.

Valeurs possibles : response.output_text.delta
Yes

ResponseTextDoneEvent

Émis lorsque le contenu du texte est finalisé.

Name Type Description Required Default
content_index integer Index de la partie de contenu que le contenu du texte est finalisé.
Yes
item_id string ID de l’élément de sortie que le contenu du texte est finalisé.
Yes
output_index integer Index de l’élément de sortie que le contenu du texte est finalisé.
Yes
text string Contenu texte finalisé.
Yes
type enum Type de l’événement. Toujours response.output_text.done.

Valeurs possibles : response.output_text.done
Yes

ResponseUsage

Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.

Name Type Description Required Default
input_tokens integer Nombre de jetons d’entrée. Yes
output_tokens integer Nombre de jetons de sortie. Yes
output_tokens_details object Répartition détaillée des jetons de sortie. Yes
└─ reasoning_tokens integer Nombre de jetons de raisonnement. No
total_tokens integer Nombre total de jetons utilisés. Yes

Screenshot

Action de capture d’écran.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.

Valeurs possibles : screenshot
Yes

Scroll

Action de défilement.

Name Type Description Required Default
scroll_x integer Distance de défilement horizontale.
Yes
scroll_y integer Distance de défilement verticale.
Yes
type enum Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours définie sur scroll.

Valeurs possibles : scroll
Yes
x integer Coordonnée x où le défilement s’est produit.
Yes
y integer Coordonnée y où le défilement s’est produit.
Yes

StopConfiguration

Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.

Ce composant peut être l’un des éléments suivants :

TextResponseFormatConfiguration

Objet spécifiant le format que le modèle doit générer.

La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.

Non recommandé pour les modèles gpt-4o et versions ultérieures :

Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.

Ce composant peut être l’un des éléments suivants :

TextResponseFormatJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.

Name Type Description Required Default
description string Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format.
No
name string Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64.
No
schema ResponseFormatJsonSchemaSchema Schéma pour le format de réponse, décrit en tant qu’objet json Schema. Yes
strict boolean Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie.
Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true.
No False
type enum Type de format de réponse défini. Toujours json_schema.
Valeurs possibles : json_schema
Yes

Tool

Ce composant peut être l’un des éléments suivants :

ToolChoiceFunction

Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
name string Nom de la fonction à appeler. Yes
type enum Pour l’appel de fonction, le type est toujours function.
Valeurs possibles : function
Yes

ToolChoiceOptions

Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.

Property Value
Description Contrôle (le cas échéant) l’outil appelé par le modèle.

none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
Type string
Values none
auto
required

ToolChoiceTypes

Indique que le modèle doit utiliser un outil intégré pour générer une réponse.

Name Type Description Required Default
type enum Type d’outil hébergé que le modèle doit utiliser. Les valeurs autorisées sont les suivantes :
- file_search
- computer_use_preview

Valeurs possibles : file_search, computer_use_preview
Yes

Type

Action à taper dans le texte.

Name Type Description Required Default
text string Texte à taper.
Yes
type enum Spécifie le type d’événement. Pour une action de type, cette propriété est toujours définie sur type.

Valeurs possibles : type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.
Yes

UrlCitation

Citation d’une ressource web utilisée pour générer une réponse de modèle.

Name Type Description Required Default
end_index integer Index du dernier caractère de la citation d’URL dans le message.
Yes
start_index integer Index du premier caractère de la citation d’URL dans le message.
Yes
title string Titre de la ressource web.
Yes
type enum Type de la citation d’URL. Toujours url_citation.

Valeurs possibles : url_citation
Yes
url string URL de la ressource web.
Yes

VectorStoreFileAttributes

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.

Aucune propriété définie pour ce composant.

VectorStoreFileContentResponse

Représente le contenu analysé d’un fichier de magasin de vecteurs.

Name Type Description Required Default
data array Contenu analysé du fichier. Yes
has_more boolean Indique s’il y a plus de pages de contenu à extraire. Yes
next_page string Jeton de la page suivante, le cas échéant. Yes
object enum Type d’objet, qui est toujours vector_store.file_content.page
Valeurs possibles : vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters ComparisonFilter ou CompoundFilter Filtre à appliquer en fonction des attributs de fichier. No
max_num_results integer Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. No 10
query chaîne ou tableau Chaîne de requête pour une recherche Yes
ranking_options object Options de classement pour la recherche. No
└─ ranker enum Valeurs possibles : auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Contenu texte retourné par la recherche. Yes
type enum Type de contenu.
Valeurs possibles : text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.
Yes
content array Blocs de contenu du fichier. Yes
file_id string ID du fichier de magasin de vecteurs. Yes
filename string Nom du fichier de magasin de vecteurs. Yes
score number Score de similarité pour le résultat. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array Liste des éléments de résultat de recherche. Yes
has_more boolean Indique s’il y a plus de résultats à extraire. Yes
next_page string Jeton de la page suivante, le cas échéant. Yes
object enum Type d’objet, qui est toujours vector_store.search_results.page
Valeurs possibles : vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Aucune propriété définie pour ce composant.

Wait

Action d’attente.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie sur wait.

Valeurs possibles : wait
Yes

ReasoningEffort

Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.

Property Value
Description Limite l’effort sur le raisonnement des modèles de raisonnement.
Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
Type string
Default medium
Values low
medium
high

errorEvent

Se produit lorsqu’une erreur se produit. Cela peut se produire en raison d’une erreur de serveur interne ou d’un délai d’expiration.

Name Type Description Required Default
data error Yes
event string Yes

event Enum : ErrorEventEnum

Value Description
error

doneEvent

Se produit lorsqu’un flux se termine.

Name Type Description Required Default
data string Yes
event string Yes

event Enum : DoneEventEnum

Value Description
done

enum de données : DoneEventDataEnum

Value Description
[DONE]

Next steps

Découvrez les modèles et le réglage précis avec l’API REST. En savoir plus sur les modèles sous-jacents qui alimentent Azure OpenAI.