Azure OpenAI dans Microsoft Foundry Models REST API preview reference

Cet article fournit des détails sur les terminaux d’inférence de l’API REST pour Azure OpenAI.

API specs

La gestion et l’interaction avec les modèles et ressources OpenAI Azure sont réparties sur trois surfaces principales d’API :

  • Control plane
  • Plan de données - création
  • Plan de données - inférence

Chaque surface/spécification API englobe un ensemble différent de capacités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’aperçu et d’API stable/généralement disponibles (GA). Les sorties de prévisualisation suivent actuellement un rythme mensuel.

Important

Il existe désormais une nouvelle API d’inférence d’aperçu. Découvrez-en plus dans notre guide du cycle de vie de l’API.

API Dernière version d’aperçu Dernière sortie de GA Specifications Description
Control plane 2025-07-01-preview 2025-06-01 Spec files L’API du plan de contrôle est utilisée pour des opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de haut niveau. Le plan de contrôle régit également ce qui est possible à faire avec des fonctionnalités telles que Azure Resource Manager, Bicep, Terraform et Azure CLI.
Data plane v1 preview v1 Spec files L’API du plan de données contrôle les opérations d’inférence et d’authoring.

Authentication

Azure OpenAI propose deux méthodes d’authentification. Vous pouvez utiliser soit API Keys, soit Microsoft Entra ID.

  • Authentification par clé API : Pour ce type d’authentification, toutes les requêtes API doivent inclure la clé API dans l’en-tête api-key HTTP. Le Quickstart fournit des conseils pour passer des appels avec ce type d’authentification.

  • Microsoft Entra ID : Vous pouvez authentifier un appel API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont inclus dans une requête en tant qu’en-tête Authorization . Le jeton fourni doit être précédé de Bearer, par exemple Bearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur authentifier avec Microsoft Entra ID.

Versionnement de l’API REST

Les API de service sont versionnées à l’aide du api-version paramètre de requête. Toutes les versions suivent la structure de dates YYYY-MM-DD. For example:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inférence dans les plans de données

Le reste de l’article traite de la version preview 2025-04-01-preview de la spécification d’inférence du plan de données OpenAI Azure.

Si vous cherchez de la documentation sur la dernière version de l’API GA, consultez la dernière API d’inférence des plans de données GA

Complétions - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

Crée une complétion pour l’invite fournie, les paramètres et le modèle choisi.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
best_of integer Génère best_of des complétions côté serveur et retourne le « meilleur » (celui avec la plus grande probabilité logarithmique par jeton). Les résultats ne peuvent pas être diffusés en streaming.

Lorsqu’elle est utilisée avec n, best_of contrôle le nombre de complétions candidates et n spécifie combien retourner ââ'¬â€œ best_of doit être supérieur à n.

Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop.
No 1
echo boolean Faites écho à la consigne en plus de la complétion No False
frequency_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. No 0
logit_bias object Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion.

Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokeniseur GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <token |endoftext> .
No None
logprobs integer Incluez les probabilités logarithiques sur les logprobs jetons de sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 5, l’API renvoie une liste des 5 jetons les plus probables. L’API renvoie toujours le logprob du jeton échantillonné, donc il peut y avoir jusqu’à logprobs+1 jusqu’à des éléments dans la réponse.

La valeur maximale pour logprobs est 5.
No None
max_tokens integer Le nombre maximal de jetons pouvant être générés dans la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur contextuelle du modèle.
No 16
n integer Combien de complétions générer pour chaque invite.

Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop.
No 1
presence_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. No 0
prompt chaîne ou tableau L’invite pour générer des complétions pour, encodée sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de document que le modèle voit pendant l’entraînement, donc si une invite n’est pas spécifiée, le modèle se génère comme au début d’un nouveau document.
Yes
seed integer Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.

Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend.
No
stop chaîne ou tableau Jusqu’à quatre séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contiendra pas la séquence d’arrêt. No
stream boolean Est-ce qu’il faut réintégrer un progrès partiel en détail. S’ils sont définis, les jetons sont envoyés comme des événements uniquement donnés par le serveur dès qu’ils deviennent disponibles, le flux étant terminé par un data: [DONE] message. Exemple Python code.
No False
suffix string Le suffixe qui vient après la fin du texte inséré.

Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.

Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json createCompletionResponse

Code de statut : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crée une complétion pour l’invite fournie, les paramètres et le modèle choisi.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Embeddings - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et algorithmes d’apprentissage automatique.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string L’identifiant de déploiement du modèle qui a été déployé.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
dimensions integer Le nombre de dimensions que doivent avoir les embeddings de sortie résultantes. Pris en charge uniquement dans text-embedding-3 les modèles et les modèles ultérieurs. No
encoding_format string Le format pour renvoyer les embeddings. Peut être l’un ou l’autre float ou base64. Par défaut, .float No
input chaîne ou tableau Texte d’entrée pour l’intégrer, encodé sous forme de chaîne ou de tableau de jetons. Pour intégrer plusieurs entrées dans une seule requête, passez un tableau de chaînes ou un tableau de tableaux de jetons. L’entrée ne doit pas dépasser le maximum de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide, et tout tableau doit avoir 2 048 dimensions ou moins. Yes
input_type string Type d’entrée de recherche d’intégration à utiliser No
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json object

Examples

Example

Retournez les embeddings pour une invite donnée.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview

{
 "input": [
  "this is a test"
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0020113448
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Complétions de chat - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

Crée une complétion pour le message de chat

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
audio object Paramètres pour la sortie audio. Requise lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wavdeux , mp3, flac, opus, ou pcm16.

Valeurs possibles : wav, mp3, flac, opus, pcm16
No
└─ voice enum Précise le type de voix. Les voix soutenues sont alloy, echo, fable, onyx, nova, et shimmer.

Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer
No
data_sources array Les entrées de configuration pour les extensions de chat Azure OpenAI qui les utilisent.
Cette spécification supplémentaire n’est compatible qu’avec Azure OpenAI.
No
frequency_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot.
No 0
function_call chaîne ou chatCompletionFunctionCallOption Déprécié au profit de tool_choice.

Contrôle quelle fonction (le cas échéant) est appelée par le modèle.
none signifie que le modèle n’appellera pas de fonction et générera un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
Spécifier une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la fonction par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
No
functions array Déprécié au profit de tools.

Une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
No
logit_bias object Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion.

Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokenizador) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné.
No None
logprobs boolean S’il faut ou non retourner les probabilités logarithiques des jetons de sortie. Si c’est vrai, renvoie les probabilités logarithmitrophiques de chaque jeton de sortie retourné dans le content de message. No False
max_completion_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une complétion, incluant les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Le nombre maximal de jetons pouvant être générés lors de la fin du chat.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
No
messages array Une liste des messages qui composent la conversation jusqu’à présent. Exemple Python code. Yes
metadata object Étiquettes et valeurs définies par le développeur utilisées pour filtrer les complétions dans le tableau de bord des complétions stockées. No
modalities ChatCompletionModalities Types de sortie que vous souhaitez que le modèle génère pour cette requête.
La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :

["text", "audio"]
No
n integer Combien de choix de fin de conversation générer pour chaque message d’entrée. Vous serez facturé en fonction du nombre de jetons générés dans toutes les options. Gardez n le minimum 1 pour minimiser les coûts. No 1
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
prediction PredictionContent Configuration pour une sortie prédite, qui peut grandement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. C’est le plus courant lorsque vous régénérez un fichier avec seulement des modifications mineures de la plupart du contenu. No
presence_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets.
No 0
reasoning_effort enum Uniquement les modèles O1

Limite l’effort de raisonnement pour les modèles de raisonnement.

Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.
Valeurs possibles : low, medium, high
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Un objet spécifiant le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées, qui garantissent que le modèle correspond à votre schéma JSON fourni.

Le réglage activant { "type": "json_object" } le mode JSON, qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
seed integer Cette fonctionnalité est en version Bêta.
Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.
Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons.
No
store boolean Savoir si la sortie de cette demande de complétion de chat doit être utilisée dans nos produits de distillation ou d’évaluation de modèles. No
stream boolean Si c’est défini, des deltas partiels de message sont envoyés, comme dans ChatGPT. Les jetons sont envoyés uniquement comme des événements envoyés par le serveur dès qu’ils deviennent disponibles, le flux étant interrompu par un data: [DONE] message. Exemple Python code.
No False
stream_options chatCompletionStreamOptions Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.

Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
tool_choice chatCompletionToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle. none cela signifie que le modèle n’appellera aucun outil et générera un message à la place. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. Spécifier un outil particulier force {"type": "function", "function": {"name": "my_function"}} le modèle à appeler cet outil. none est la norme par défaut lorsqu’aucun outil n’est présent. auto est la norme par défaut si des outils sont présents. No
tools array Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge comme outil. Utilisez cela pour fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont pris en charge.
No
top_logprobs integer Un entier compris entre 0 et 20 spécifiant le nombre de jetons les plus susceptibles de revenir à chaque position de jeton, chacun avec une probabilité logarithmique associée. logprobs doit être fixé à true si ce paramètre est utilisé. No
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No
user_security_context userSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application d’IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces domaines aident vos équipes d’opérations de sécurité à enquêter et à atténuer les incidents de sécurité en proposant une approche globale pour protéger vos applications d’IA. En savoir plus sur la protection des applications d’IA utilisant Microsoft Defender for Cloud. No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json object

Code de statut : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

Examples

Example

Crée une complétion pour l’invite fournie, les paramètres et le modèle choisi.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion basée sur les données Azure Search et l’identité managée assignée au système.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion basée sur les données vectorielles d’image Azure Search.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion basée sur les données du vecteur de recherche Azure, le message d’assistant précédent et l’identité gérée attribuée par l’utilisateur.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion pour la Azure Cosmos DB fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion pour la base de données Mongo fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion pour l’Elasticsearch fourni.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Example

Crée une complétion pour la ressource Pinepome fournie.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcriptions - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Transcrit l’audio dans la langue d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
model string ID du modèle à utiliser. Les options sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, et gpt-4o-transcribe-diarize. Yes
file string L’objet du fichier audio à transcrire. Yes
language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 améliore la précision et la latence. No
prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. La consigne doit correspondre au langage audio. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. No 0
timestamp_granularities[] array Les détails temporels à remplir pour cette transcription. response_format doit être réglé verbose_json pour utiliser des granularités horodatages. L’une ou l’autre de ces options est prise en charge : word, ou segment. Remarque : Il n’y a pas de latence supplémentaire pour les horodatages de segments, mais la génération de horodatages de mots entraîne une latence supplémentaire. No ['segment']

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Texte transcrit dans le format de sortie (lorsque response_format était l’un des text, vtt ou srt).

Examples

Example

Obtient le texte transcrit et les métadonnées associées à partir des données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtient le texte transcrit et les métadonnées associées à partir des données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code de statut : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traductions - Create

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

Transcrit et traduit l’audio d’entrée en texte anglais.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
file string Le fichier audio à traduire. Yes
prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Le prompt doit être en anglais. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. No 0

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json object
text/plain string Texte transcrit au format de sortie (quand response_format était un texte de texte, vtt ou srt).

Examples

Example

Obtient le texte transcrit en anglais et les métadonnées associées à partir des données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code de statut : 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Example

Obtient le texte transcrit en anglais et les métadonnées associées à partir des données audio parlées fournies.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Réponses : Code de statut : 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Parole - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

Génère de l’audio à partir du texte d’entrée.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
input string Le texte pour synthétiser l’audio. La longueur maximale est de 4 096 caractères. Yes
response_format enum Le format pour synthétiser l’audio.
Valeurs possibles : mp3, opus, aac, flac, wav, pcm
No
speed number La vitesse de l’audio synthétisé. Sélectionnez une valeur de 0.25 vers 4.0. 1.0 est la norme par défaut. No 1.0
voice enum La voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer
Yes

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/octet-stream string

Examples

Example

Synthétise l’audio à partir du texte fourni.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Réponses : Code de statut : 200

{
  "body": "101010101"
}

Générations d’images - Créer

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

Génère un lot d’images à partir d’une légende texte sur un déploiement donné du modèle de génération d’images

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
background imageBackground Permet de définir la transparence pour l’arrière-plan des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. No auto
n integer Le nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. No 1
output_compression integer Le niveau de compression (0-100%) pour les images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1 avec le format de sortie jpeg. No 100
output_format imagesOutputFormat Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de la série GPT-image-1. No png
prompt string Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères pour la série gpt-image-1 et de 4 000 caractères pour dall-e-3 Yes
partial_images integer Le nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses en flux qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est réglée à 0, la réponse sera une seule image envoyée lors d’un événement de streaming. Notez que l’image finale peut être envoyée avant que le nombre complet d’images partielles ne soit généré si l’image complète est générée plus rapidement. 0
stream boolean Modifie l’image en mode streaming. no false
quality imageQuality La qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Le format dans lequel les images générées sont renvoyées. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles en série qui retournent toujours des images encodées en base64.
Valeurs possibles : url, b64_json.
No url
size imageSize La taille des images générées. No auto
style imageStyle Le style des images générées. Pris en charge uniquement pour DALL-E-3. No vivid
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

Responses

Code de statut : 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Code de statut : par défaut

Description : Une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Examples

Example

Crée des images à partir d’une invitation.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Réponses : Code de statut : 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Générations d’images - Modifier

POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview

Modifie une image à partir d’une légende texte sur un déploiement donné du modèle gpt-image-1

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
deployment-id path Yes string
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: multipart/form-data

Name Type Description Required Default
image chaîne ou tableau L’image à modifier. Il doit s’agir d’un fichier image pris en charge ou d’un tableau d’images. Chaque image doit être un fichier png ou jpg de moins de 50 Mo. Yes
input_fidelity string Contrôlez l’effort que le modèle fournira pour correspondre au style et aux caractéristiques, en particulier aux traits du visage, des images d’entrée. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. Supports high et low. no low.
mask string Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être éditée. Si plusieurs images sont fournies, le masque sera appliqué sur la première image. Il doit s’agir d’un fichier PNG valide, de moins de 4 Mo, et avoir les mêmes dimensions que l’image. No
n integer Le nombre d’images à générer. Ça doit être entre 1 et 10 ans. No 1
prompt string Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères. Yes
quality imageQuality La qualité de l’image qui sera générée. No auto
partial_images Le nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses en flux qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est réglée à 0, la réponse sera une seule image envoyée lors d’un événement de streaming. Notez que l’image finale peut être envoyée avant que le nombre complet d’images partielles ne soit généré si l’image complète est générée plus rapidement.
stream boolean Modifie l’image en mode streaming. no false
response_format imagesResponseFormat Le format dans lequel les images générées sont renvoyées. No url
size imageSize La taille des images générées. No auto
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

Responses

Code de statut : 200

Description: Ok

Content-Type Type Description
application/json generateImagesResponse

Code de statut : par défaut

Description : Une erreur s’est produite.

Content-Type Type Description
application/json dalleErrorResponse

Liste - Assistants

Note

L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Retourne une liste d’assistants.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listAssistantsResponse

Examples

Example

Retourne une liste d’assistants.

GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Créer - Assistant

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

Créez un assistant avec un modèle et des instructions.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
description string La description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Les instructions système que l’assistant utilise. La longueur maximale est de 256 000 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string Yes
name string Le nom de l’assistante. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le stockage vectoriel est attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
└─ vector_stores array Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function.
No []
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Créez un assistant avec un modèle et des instructions.

POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obtenez - Assistant

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Il récupère un assistant.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string La pièce d’identité de l’assistant à récupérer.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Il récupère un assistant.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modifier - Assistant

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Modifie un assistant.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string L’ID de l’assistant à modifier.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
description string La description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Les instructions système que l’assistant utilise. La longueur maximale est de 32 768 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string No
name string Le nom de l’assistante. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Outrepasse la liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Remplace le stockage vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function.
No []
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json assistantObject

Examples

Example

Modifie un assistant.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Supprimer - Assistant

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Supprimez un assistant.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
assistant_id path Yes string L’ID de l’assistant à supprimer.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json deleteAssistantResponse

Examples

Example

Supprime un assistant.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Créer - Fil de discussion

Note

L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Créez un fil de discussion.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
messages array Une liste de messages pour commencer le fil. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
tool_resources object Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No
└─ vector_stores array Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Ça crée un fil de discussion.

POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obtenez - Fil

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Récupère un fil.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant du fil à récupérer.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Récupère un fil.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modifier - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Modifie un fil de discussion.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant du fil à modifier. Seuls les metadata modèles peuvent être modifiés.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
tool_resources object Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json threadObject

Examples

Example

Modifie un fil de discussion.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Supprimer - Fil de discussion

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Supprimez un fil.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant du fil à supprimer.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json deleteThreadResponse

Examples

Example

Supprime un fil.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Liste - Messages

Note

L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Renvoie une liste de messages pour un fil donné.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant des threads auxquels appartiennent les messages.
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
run_id query No string Filtrez les messages selon l’identifiant de la sortie qui les a générés.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listMessagesResponse

Examples

Example

List Messages

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Créer - Message

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

Créez un message.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID des threads pour créer un message.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
attachments array Une liste des fichiers attachés au message, et les outils auxquels ils doivent être ajoutés. No
content string Le contenu du message. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
role string Le rôle de l’entité qui crée le message. Les valeurs autorisées incluent :
- user: Indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.
- assistant: Indique que le message est généré par l’assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Yes

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Créez un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Get - Message

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Récupérez un message.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID des threads auxquels ce message appartient.
message_id path Yes string L’identifiant du message à récupérer.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Récupérez un message.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modifier - Message

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

Modifie un message.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant du fil auquel ce message appartient.
message_id path Yes string L’ID du message à modifier.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json messageObject

Examples

Example

Modifier un message.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Créer - Thread et exécuter

Note

L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

Créez un fil et exécutez-le en une seule requête.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
assistant_id string L’identifiant de l’assistant à utiliser pour exécuter cette course. Yes
instructions string Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string L’identifiant des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message.
No
stream_options chatCompletionStreamOptions Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle.
none cela signifie que le modèle n’appellera aucun outil et générera un message à la place.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array L’identifiant du magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. No
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Créez un fil et exécutez-le en une seule requête.

POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Liste - Points

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Retourne une liste des exécutions appartenant à un thread.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID du thread auquel appartient la séance.
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listRunsResponse

Examples

Example

Retourne une liste des exécutions appartenant à un thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Créer - Courir

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

Créez une course.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID du fil à exécuter.
include[] query No array Une liste de champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content de récupérer le contenu des résultats de recherche du fichier.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions pour la sélection. Cela est utile pour modifier le comportement par exécution sans outrepasser d’autres instructions. No
additional_messages array Ajoute des messages supplémentaires au fil avant de créer la séquence. No
assistant_id string L’identifiant de l’assistant à utiliser pour exécuter cette course. Yes
instructions string Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string L’ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_choice assistantsApiToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle.
none cela signifie que le modèle n’appellera aucun outil et générera un message à la place.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tools array Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. No
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Créez une course.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview

{
 "assistant_id": "asst_abc123"
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Vas-y, cours

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Il récupère une course.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant des threads qui ont été exécutés.
run_id path Yes string L’identifiant de la course à récupérer.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Il se dépêche.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modifier - Run

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

Modifie une partie.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant des threads qui ont été exécutés.
run_id path Yes string L’ID de la course à modifier.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Modifie une partie.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Soumettre - Sorties d’outils à exécuter

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

Lorsqu’une exécution a le status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour soumettre les sorties des appels d’outils une fois qu’elles sont toutes terminées. Toutes les sorties doivent être soumises dans une seule demande.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID des threads auxquels cette exécution appartient.
run_id path Yes string L’identifiant de la run qui nécessite la soumission de la sortie de l’outil.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
stream boolean Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message.
No
tool_outputs array Une liste des outils pour lesquels les résultats sont soumis. Yes

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Lorsqu’une exécution a le status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour soumettre les sorties des appels d’outils une fois qu’elles sont toutes terminées. Toutes les sorties doivent être soumises dans une seule demande.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Annuler - Courir

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Annule une partie qui est in_progress.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant du thread auquel cette exécution appartient.
run_id path Yes string L’ID de la course à annuler.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runObject

Examples

Example

Annule une partie qui est in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Liste - Run Steps

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Retourne une liste des étapes de run appartenant à une run.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’ID du thread auquel appartiennent les étapes d’exécution et d’exécution.
run_id path Yes string L’ID de la course à laquelle appartiennent les étapes de run.
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
api-version query Yes string
include[] query No array Une liste de champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content de récupérer le contenu des résultats de recherche du fichier.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listRunStepsResponse

Examples

Example

Retourne une liste des étapes de run appartenant à une run.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Passe - Cours

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Il récupère une marche de course.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
thread_id path Yes string L’identifiant du thread auquel appartient l’étape run et run.
run_id path Yes string L’identifiant de la course à laquelle appartient l’étape de la séquence.
step_id path Yes string L’ID de l’étape de course à récupérer.
include[] query No array Une liste de champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content de récupérer le contenu des résultats de recherche du fichier.
api-version query Yes string

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json runStepObject

Examples

Example

Il récupère une marche de course.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Liste - Magasins vectoriels

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Retourne une liste de magasins vectoriels.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listVectorStoresResponse

Examples

Example

Retourne une liste de magasins vectoriels.

GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Créer - Magasin vectoriel

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Créez un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. Applicable seulement si file_ids elle est non vide. No
expires_after vectorStoreExpirationAfter La politique d’expiration pour un magasin vectoriel. No
file_ids array Une liste des identifiants de fichiers que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
name string Le nom du magasin vectoriel. No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Crée un magasin vectoriel.

POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obtenir - Vector Store

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Récupère un stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du magasin vectoriel à récupérer.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Récupère un stockage vectoriel.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modifier - Stockage vectoriel

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Modifie un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du stockage vectoriel à modifier.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
expires_after vectorStoreExpirationAfter La politique d’expiration pour un magasin vectoriel. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
name string Le nom du magasin vectoriel. No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreObject

Examples

Example

Modifie un magasin vectoriel.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

{
 "name": "Support FAQ"
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Supprimer - Stockage vectoriel

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Supprime un magasin vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du magasin vectoriel à supprimer.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreResponse

Examples

Example

Ça supprime un magasin vectoriel.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Liste - Fichiers de stockage vectoriel

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Retourne une liste de fichiers de stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel auquel appartiennent les fichiers.
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
filter query No string
Valeurs possibles : in_progress, completed, failed, cancelled
Filtrez par statut du fichier. L’un des in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retourne une liste de fichiers de stockage vectoriel.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create - fichier de stockage vectoriel

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

Créez un fichier de stockage vectoriel en associant un fichier à un stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du magasin vectoriel pour lequel créer un fichier.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. No
file_id string Un identifiant de fichier que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. Yes

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Créez un fichier de stockage vectoriel en associant un fichier à un stockage vectoriel.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview

{
 "file_id": "file-abc123"
}

Réponses : Code de statut : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Get - fichier Vector Store

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Récupère un fichier de stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel auquel appartient le fichier.
file_id path Yes string L’identifiant du fichier récupéré.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Examples

Example

Récupère un fichier de stockage vectoriel.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Supprimer - fichier de stockage vectoriel

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Supprime un fichier de stockage vectoriel. Cela retirera le fichier du magasin vectoriel mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison supprimer le fichier.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel auquel appartient le fichier.
file_id path Yes string L’ID du fichier à supprimer.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json deleteVectorStoreFileResponse

Examples

Example

Supprime un fichier de stockage vectoriel. Cela retirera le fichier du magasin vectoriel mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison supprimer le fichier.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Updatevectorstorefileattributes

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview

Mettre à jour les attributs sur un fichier de stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant de la mémoire vectorielle à laquelle appartient le fichier.
file_id path Yes string L’ID du fichier pour mettre à jour les attributs.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres.
Yes

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileObject

Récupérer le contenu du fichier de stockage vectoriel

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview

Récupérez le contenu analysé d’un fichier de stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du magasin vectoriel.
file_id path Yes string L’identifiant du fichier dans le magasin vectoriel.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json VectorStoreFileContentResponse

Stockage vectoriel de recherche

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview

Recherchez dans un magasin vectoriel les chunks pertinents à partir d’un filtre d’attributs de requête et de fichier.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’ID du magasin vectoriel à rechercher.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
filters Filtre de comparaison ou filtre composé Un filtre à appliquer basé sur les attributs du fichier. No
max_num_results integer Le nombre maximal de résultats à revendre. Ce nombre devrait être compris entre 1 et 50. No 10
query chaîne ou tableau Une chaîne de requête pour une recherche Yes
ranking_options object Options de classement pour la recherche. No
└─ ranker enum
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number No 0
rewrite_query boolean S’il faut réécrire la requête en langage naturel pour la recherche vectorielle. No False

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json VectorStoreSearchResultsPage

Create - Fichier de stockage vectoriel par lots

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

Créez un lot de fichiers de stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel pour créer un File Batch.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Request Body

Content-Type: application/json

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. No
file_ids array Une liste des identifiants de fichiers que le magasin vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. Yes

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Créez un lot de fichiers de stockage vectoriel.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Réponses : Code de statut : 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Get - Fichier Vector Store Batch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Récupère un lot de fichiers de stockage vectoriel.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel auquel appartient le lot de fichiers.
batch_id path Yes string L’identifiant du lot de fichiers récupéré.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Récupère un lot de fichiers de stockage vectoriel.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Annuler - Fichier de stockage vectoriel par lots

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Annulez un lot de fichiers de stockage vectoriel. Cela tente d’annuler le traitement des fichiers dans ce lot le plus rapidement possible.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel auquel appartient le lot de fichiers.
batch_id path Yes string L’identifiant du lot de fichiers à annuler.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json vectorStoreFileBatchObject

Examples

Example

Annulez un lot de fichiers de stockage vectoriel. Cela tente d’annuler le traitement des fichiers dans ce lot le plus rapidement possible.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Liste - Fichiers batch de stockage vectoriel

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Retourne une liste de fichiers de stockage vectoriel en batch.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
vector_store_id path Yes string L’identifiant du magasin vectoriel auquel appartiennent les fichiers.
batch_id path Yes string L’ID du lot de fichiers auquel appartiennent les fichiers.
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
Triez selon l’horodatage created_at des objets. asc pour l’ordre croissant et desc l’ordre décroissant.
after query No string Un curseur pour la pagination. after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste.
before query No string Un curseur pour la pagination. before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste.
filter query No string
Valeurs possibles : in_progress, completed, failed, cancelled
Filtrez par statut du fichier. L’un des in_progress, completed, failed, cancelled.
api-version query Yes string api version

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json listVectorStoreFilesResponse

Examples

Example

Retourne une liste de fichiers de stockage vectoriel.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview

Réponses : Code de statut : 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Create - Realtimesession

POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview

Créez un jeton API éphémère pour une utilisation dans les applications côté client avec l’API Temps Réel. Peut être configuré avec les mêmes paramètres de session que l’événement session.update client. Il répond par un objet de session, ainsi qu’une client_secret clé contenant un jeton éphémère d’API utilisable pouvant être utilisé pour authentifier les clients navigateurs de l’API en temps réel.

Request Body

Content-Type: application/json

Name Type Description Required Default
input_audio_format enum Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.

Valeurs possibles : pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.
La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle.
Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée.
No
└─ type enum Un type de réduction du bruit. near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être configurée pour null s’éteindre une fois activée. La transcription audio en entrée n’est pas native au modèle, car celui-ci consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme une orientation du contenu audio d’entrée plutôt que comme ce que le modèle a entendu précisément. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription.
No
└─ language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model string Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.
No
└─ prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots-clés.
Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ».
No
instructions string Les instructions système par défaut (c’est-à-dire le message système) précédaient les appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être instruit sur le contenu et le format des réponses (par exemple « soyez extrêmement concis », « soyez amical », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple « parlez vite », « injectez de l’émotion dans votre voix », « riez fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des indications au modèle sur le comportement souhaité.

Notez que le serveur définit des instructions par défaut qui seront utilisées si ce champ n’est pas défini et qui sont visibles lors de l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’un seul assistant, incluant les appels d’outils. Fournir un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour le nombre maximal de jetons disponibles pour un modèle donné. Par défaut, .inf
No
modalities L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »].
No
model string Le nom du déploiement utilisé pour cette session.
No
output_audio_format enum Le format de l’audio de sortie. Les options sont pcm16, g711_ulaw, ou g711_alaw.
Pour pcm16, l’audio de sortie est échantillonné à un débit de 24 kHz.

Valeurs possibles : pcm16, g711_ulaw, g711_alaw
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour de meilleures performances.
No 0.8
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, required, ou spécifier une fonction.
No auto
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement. auto est le par défaut et est équivalent à medium.

Valeurs possibles : low, medium, high, auto
No
└─ interrupt_response boolean S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No
voice VoiceIdsShared No

Responses

Code de statut : 200

Description : Session créée avec succès.

Content-Type Type Description
application/json RealtimeSessionCreateResponse

Créer - Transcriptionrealtimesession

POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview

Créez un jeton API éphémère pour une utilisation dans les applications côté client avec l’API Temps Réel, spécifiquement pour les transcriptions en temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement transcription_session.update client. Il répond par un objet de session, ainsi qu’une client_secret clé contenant un jeton éphémère d’API utilisable pouvant être utilisé pour authentifier les clients navigateurs de l’API en temps réel.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array L’ensemble des éléments à inclure dans la transcription. Les articles actuellement disponibles sont :
- item.input_audio_transcription.logprobs
No
input_audio_format enum Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.

Valeurs possibles : pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.
La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle.
Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée.
No
└─ type enum Un type de réduction du bruit. near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio en entrée. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription.
No
└─ language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model enum Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.

Valeurs possibles : gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots-clés.
Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ».
No
modalities L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »].
No
turn_detection object Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit. Non disponible pour les séances de transcription.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement. auto est le par défaut et est équivalent à medium.

Valeurs possibles : low, medium, high, auto
No
└─ interrupt_response boolean S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les séances de transcription.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No

Responses

Code de statut : 200

Description : Session créée avec succès.

Content-Type Type Description
application/json RealtimeTranscriptionSessionCreateResponse

Responses

POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview

Crée une réponse modèle.

Request Body

Content-Type: application/json

Name Type Description Required Default
include array No
input chaîne ou tableau Model inputs Yes
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses.
No
max_output_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de la conversation.
No
parallel_tool_calls boolean Permettre au modèle d’exécuter des appels d’outils en parallèle.
No True
previous_response_id string L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. En savoir plus sur l’état de la conversation.
No
reasoning Reasoning Options de configuration pour les modèles de raisonnement. No
store boolean Savoir s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via API.
No True
stream boolean Si elle est réglée sur true, les données de réponse du modèle seront diffusées au client au fur et à mesure de leur génération via des événements envoyés par le serveur.
Voir la section Streaming ci-dessous pour plus d’informations.
No False
text object Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more:
- Entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Un objet spécifiant le format que le modèle doit produire.

La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le format par défaut est { "type": "text" } sans options supplémentaires.

Non recommandé pour le gpt-4o et les modèles plus récents :

En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent.
No
tool_choice OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler.
No
tools array Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir au modèle sont :

- Outils intégrés : Outils fournis par OpenAI qui étendent la
model's capabilities
No
truncation enum La stratégie de troncature à utiliser pour la réponse du modèle.
- auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre contextuelle du modèle, le modèle tronquera la réponse pour s’adapter à la fenêtre de contexte en supprimant des éléments d’entrée au milieu de la conversation.
- disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.

Valeurs possibles : auto, disabled
No

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json response
text/event-stream responseStreamEvent

Code de statut : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

API Réponses - éléments d’entrée

GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Récupère une réponse du modèle avec l’ID donné.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L’identifiant de la réponse à récupérer.
include query No array Champs supplémentaires à inclure dans la réponse. Voir le include paramètre de création de réponse ci-dessus pour plus d’informations.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json response

Code de statut : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

Delete response

DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview

Supprime une réponse de modèle avec l’ID indiqué.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L’identifiant de la réponse à supprimer.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Code de statut : 404

Description : Non trouvé

Content-Type Type Description
application/json error

Code de statut : par défaut

Description : Service indisponible

Content-Type Type Description
application/json errorResponse

API Réponses - liste des éléments de réponse

GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview

Retourne une liste d’éléments d’entrée pour une réponse donnée.

URI Parameters

Name In Required Type Description
endpoint path Yes string url Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com
response_id path Yes string L’identifiant de la réponse pour récupérer les éléments d’entrée pour.
limit query No integer Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20.
order query No string
Valeurs possibles : asc, desc
L’ordre pour renvoyer les éléments d’entrée. Par défaut est asc.
- asc: Retourner les éléments d’entrée dans l’ordre croissant.
- desc: Retourner les éléments d’entrée dans l’ordre décroissant.
after query No string Un identifiant d’élément pour lister les éléments après, utilisé lors de la pagination.
before query No string Un identifiant d’élément pour lister les éléments précédents, utilisé lors de la pagination.

Request Header

Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.

Name Required Type Description
Authorization True string Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}

Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.com

Type: oauth2
URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Portée : https://ai.azure.com/.default
api-key True string Fournissez ici la clé API Azure OpenAI

Responses

Code de statut : 200

Description: OK

Content-Type Type Description
application/json responseItemList

Components

errorResponse

Name Type Description Required Default
error error No

errorBase

Name Type Description Required Default
code string No
message string No

error

Name Type Description Required Default
inner_error innerError Erreur intérieure avec des détails supplémentaires. No
param string No
type string No

innerError

Erreur intérieure avec des détails supplémentaires.

Name Type Description Required Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. No
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. No

innerErrorCode

Codes d’erreur pour l’objet d’erreur interne.

Property Value
Description Codes d’erreur pour l’objet d’erreur interne.
Type string
Values ResponsibleAIPolicyViolation

dalleErrorResponse

Name Type Description Required Default
error dalleError No

dalleError

Name Type Description Required Default
inner_error dalleInnerError Erreur intérieure avec des détails supplémentaires. No
param string No
type string No

dalleInnerError

Erreur intérieure avec des détails supplémentaires.

Name Type Description Required Default
code innerErrorCode Codes d’erreur pour l’objet d’erreur interne. No
content_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. No
revised_prompt string La demande utilisée pour générer l’image, s’il y avait une révision de la requête. No

contentFilterCompletionTextSpan

Décrit une portée dans le texte de complétion généré. Le décalage 0 est le premier point de code UTF32 du texte de complétion.

Name Type Description Required Default
completion_end_offset integer Décalage du premier point de code UTF32 qui est exclu de la portée. Ce champ est toujours égal à completion_start_offset pour les portées vides. Ce champ est toujours plus grand que completion_start_offset pour les travées non vides. Yes
completion_start_offset integer Décalage du point de code UTF32 qui commence la portée. Yes

contentFilterResultBase

Name Type Description Required Default
filtered boolean Yes

contentFilterSeverityResult

Name Type Description Required Default
filtered boolean Yes
severity string No

contentFilterDetectedResult

Name Type Description Required Default
detected boolean No
filtered boolean Yes

contentFilterDetectedWithCitationResult

Name Type Description Required Default
citation object No
└─ URL string No
└─ license string No

contentFilterDetectedWithCompletionTextSpansResult

Name Type Description Required Default
details array No

contentFilterIdResult

Name Type Description Required Default
filtered boolean Yes
id string No

contentFilterResultsBase

Informations sur les résultats du filtrage de contenu.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterPromptResults

Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
indirect_attack contentFilterDetectedResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

contentFilterChoiceResults

Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur les textes et jurons tiers, si cela a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. No
error errorBase No
hate contentFilterSeverityResult No
profanity contentFilterDetectedResult No
protected_material_code contentFilterDetectedWithCitationResult No
protected_material_text contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult No
violence contentFilterSeverityResult No

contentFilterDetailedResults

Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés.

Name Type Description Required Default
details array No
filtered boolean Yes

promptFilterResult

Résultats de filtrage de contenu pour une seule invite dans la requête.

Name Type Description Required Default
content_filter_results contentFilterPromptResults Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. No
prompt_index integer No

promptFilterResults

Filtrage de contenu pour zéro ou plus d’invites dans la requête. Dans une requête en streaming, les résultats pour différentes invitations peuvent arriver à des moments ou dans des ordres différents.

Aucune propriété définie pour ce composant.

dalleContentFilterResults

Informations sur les résultats du filtrage de contenu.

Name Type Description Required Default
hate contentFilterSeverityResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

dalleFilterResults

Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant.

Name Type Description Required Default
custom_blocklists contentFilterDetailedResults Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. No
hate contentFilterSeverityResult No
jailbreak contentFilterDetectedResult No
profanity contentFilterDetectedResult No
self_harm contentFilterSeverityResult No
sexual contentFilterSeverityResult No
violence contentFilterSeverityResult No

chatCompletionsRequestCommon

Name Type Description Required Default
frequency_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. No 0
logit_bias object Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet json qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokenizador) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné. No
max_completion_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une complétion, incluant les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Le nombre maximal de jetons autorisé pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner sera (4096 - jetons à invites). Ce n’est pas compatible avec les modèles de la série O1. No 4096
metadata object Étiquettes et valeurs définies par le développeur utilisées pour filtrer les complétions dans le tableau de bord des complétions stockées. No
presence_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. No 0
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. No
store boolean Savoir si la sortie de cette demande de complétion de chat doit être utilisée dans nos produits de distillation ou d’évaluation de modèles. No
stream boolean Si c’est défini, des deltas partiels de message sont envoyés, comme dans ChatGPT. Les jetons sont envoyés uniquement comme des événements envoyés par le serveur dès qu’ils deviennent disponibles, le flux étant interrompu par un data: [DONE] message. No False
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.
Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et détecter les abus. No

createCompletionRequest

Name Type Description Required Default
best_of integer Génère best_of des complétions côté serveur et retourne le « meilleur » (celui avec la plus grande probabilité logarithmique par jeton). Les résultats ne peuvent pas être diffusés en streaming.

Lorsqu’elle est utilisée avec n, best_of contrôle le nombre de complétions candidates et n spécifie combien retourner. best_of doit être supérieur à n.

Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop.
No 1
echo boolean Faites écho à la consigne en plus de la complétion
No False
frequency_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot.
No 0
logit_bias object Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion.

Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokeniseur GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné.

Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <token |endoftext> .
No None
logprobs integer Incluez les probabilités logarithiques sur les logprobs jetons de sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 5, l’API renverra une liste des 5 jetons les plus probables. L’API retournera toujours le logprob du jeton échantillonné, donc il peut y avoir jusqu’à jusqu’à logprobs+1 des éléments dans la réponse.

La valeur maximale pour logprobs est 5.
No None
max_tokens integer Le nombre maximal de jetons pouvant être générés lors de la complétion.

Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur contextuelle du modèle.
No 16
n integer Combien de complétions générer pour chaque invite.

Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop.
No 1
presence_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets.
No 0
prompt chaîne ou tableau Le(s) prompt(s) pour générer des complétions pour , encodé sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons.

Notez que <|endoftext|> est le séparateur de document que le modèle voit lors de l’entraînement, donc si une invite n’est pas spécifiée, le modèle sera généré comme si c’était le début d’un nouveau document.
Yes
seed integer Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.

Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contiendra pas la séquence d’arrêt.
No
stream boolean Est-ce qu’il faut réintégrer un progrès partiel en détail. S’ils sont définis, les jetons sont envoyés comme des événements uniquement donnés par le serveur dès qu’ils deviennent disponibles, le flux étant terminé par un data: [DONE] message. Exemple Python code.
No False
suffix string Le suffixe qui vient après la fin du texte inséré.

Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.

Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No

createCompletionResponse

Représente une réponse de complétion de l’API. Note : les objets de réponse streamés et non streamés partagent la même forme (contrairement au point de terminaison du chat).

Name Type Description Required Default
choices array La liste des choix de complétion générés par le modèle pour l’invite d’entrée. Yes
created integer L’horodatage Unix (en secondes) de la création de la complétion. Yes
id string Un identifiant unique pour l’achèvement. Yes
model string Le modèle utilisé pour la complétion. Yes
object enum Le type d’objet, qui est toujours « text_completion »
Valeurs possibles : text_completion
Yes
prompt_filter_results promptFilterResults Filtrage de contenu pour zéro ou plus d’invites dans la requête. Dans une requête en streaming, les résultats pour différentes invitations peuvent arriver à des moments ou dans des ordres différents. No
system_fingerprint string Cette empreinte digitale représente la configuration backend avec laquelle le modèle fonctionne.

Peut être utilisé conjointement avec le seed paramètre de requête pour comprendre quand des modifications en backend ont été effectuées pouvant impacter le déterminisme.
No
usage completionUsage Statistiques d’utilisation pour la demande de complétion. No

createChatCompletionRequest

Name Type Description Required Default
audio object Paramètres pour la sortie audio. Requise lorsque la sortie audio est demandée avec modalities: ["audio"]. No
└─ format enum Spécifie le format audio de sortie. Doit être l’un des wavdeux , mp3, flac, opus, ou pcm16.

Valeurs possibles : wav, mp3, flac, opus, pcm16
No
└─ voice enum Précise le type de voix. Les voix soutenues sont alloy, echo, fable, onyx, nova, et shimmer.

Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer
No
data_sources array Les entrées de configuration pour les extensions de chat Azure OpenAI qui les utilisent.
Cette spécification supplémentaire n’est compatible qu’avec Azure OpenAI.
No
frequency_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot.
No 0
function_call chaîne ou chatCompletionFunctionCallOption Déprécié au profit de tool_choice.

Contrôle quelle fonction (le cas échéant) est appelée par le modèle.
none signifie que le modèle n’appellera pas de fonction et générera un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.
Spécifier une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

none est la fonction par défaut lorsqu’aucune fonction n’est présente. auto est la valeur par défaut si des fonctions sont présentes.
No
functions array Déprécié au profit de tools.

Une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON.
No
logit_bias object Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion.

Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokenizador) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné.
No None
logprobs boolean S’il faut ou non retourner les probabilités logarithiques des jetons de sortie. Si c’est vrai, renvoie les probabilités logarithmitrophiques de chaque jeton de sortie retourné dans le content de message. No False
max_completion_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une complétion, incluant les jetons de sortie visibles et les jetons de raisonnement. No
max_tokens integer Le nombre maximal de jetons pouvant être générés lors de la fin du chat.

La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle.
No
messages array Une liste des messages qui composent la conversation jusqu’à présent. Exemple Python code. Yes
metadata object Étiquettes et valeurs définies par le développeur utilisées pour filtrer les complétions dans le tableau de bord des complétions stockées. No
modalities ChatCompletionModalities Types de sortie que vous souhaitez que le modèle génère pour cette requête.
La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :

["text", "audio"]
No
n integer Combien de choix de fin de conversation générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés sur toutes les options. Gardez n le minimum 1 pour minimiser les coûts. No 1
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
prediction PredictionContent Configuration pour une sortie prédite, qui peut grandement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. C’est le plus courant lorsque vous régénérez un fichier avec seulement des modifications mineures de la plupart du contenu. No
presence_penalty number Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets.
No 0
reasoning_effort enum Uniquement les modèles O1

Limite l’effort de raisonnement pour les modèles de raisonnement.

Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.
Valeurs possibles : low, medium, high
No
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Un objet spécifiant le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni.

Le réglage activant { "type": "json_object" } le mode JSON, qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
seed integer Cette fonctionnalité est en version Bêta.
Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.
Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend.
No
stop chaîne ou tableau Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons.
No
store boolean Savoir si la sortie de cette demande de complétion de chat doit être utilisée dans nos produits de distillation ou d’évaluation de modèles. No
stream boolean Si c’est défini, des deltas partiels de message sont envoyés, comme dans ChatGPT. Les jetons sont envoyés uniquement comme des événements envoyés par le serveur dès qu’ils deviennent disponibles, le flux étant interrompu par un data: [DONE] message. Exemple Python code.
No False
stream_options chatCompletionStreamOptions Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.

Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
tool_choice chatCompletionToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle. none signifie que le modèle n’appellera aucun outil et générera un message. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. Spécifier un outil particulier force {"type": "function", "function": {"name": "my_function"}} le modèle à appeler cet outil. none est la norme par défaut lorsqu’aucun outil n’est présent. auto est la norme par défaut si des outils sont présents. No
tools array Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge comme outil. Utilisez cela pour fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont pris en charge.
No
top_logprobs integer Un entier compris entre 0 et 20 spécifiant le nombre de jetons les plus susceptibles de revenir à chaque position de jeton, chacun avec une probabilité logarithmique associée. logprobs doit être fixé à true si ce paramètre est utilisé. No
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus.
No
user_security_context userSecurityContext Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application d’IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces domaines aident vos équipes d’opérations de sécurité à enquêter et à atténuer les incidents de sécurité en proposant une approche globale pour protéger vos applications d’IA. En savoir plus sur la protection des applications d’IA utilisant Microsoft Defender for Cloud. No

userSecurityContext

Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application d’IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces domaines aident vos équipes d’opérations de sécurité à enquêter et à atténuer les incidents de sécurité en proposant une approche globale pour protéger vos applications d’IA. En savoir plus sur la protection des applications d’IA utilisant Microsoft Defender for Cloud.

Name Type Description Required Default
application_name string Le nom de la demande. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_id string Cet identifiant est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory), utilisé pour authentifier les utilisateurs finaux au sein de l’application d’IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. No
end_user_tenant_id string L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. C’est nécessaire lorsque l’application d’IA générative est multi-locataire. No
source_ip string Capture l’adresse IP du client d’origine, acceptant à la fois les formats IPv4 et IPv6. No

chatCompletionFunctions

Name Type Description Required Default
description string Une description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Le nom de la fonction à appeler. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. Yes
parameters FunctionParameters Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.
No

chatCompletionFunctionCallOption

Spécifier une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.

Name Type Description Required Default
name string Le nom de la fonction à appeler. Yes

chatCompletionFunctionParameters

Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format.

Aucune propriété définie pour ce composant.

chatCompletionRequestMessage

Ce composant peut être l’un des suivants :

ChatCompletionRequestDeveloperMessage

Instructions fournies par le développeur que le modèle doit suivre, indépendamment des messages envoyés par l’utilisateur. Avec les modèles O1 et plus récents, developer les messages remplacent les messages précédents system .

Name Type Description Required Default
content chaîne ou tableau Le contenu du message développeur. Yes
name string Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. No
role enum Le rôle de l’auteur des messages, dans ce cas developer.
Valeurs possibles : developer
Yes

chatCompletionRequestSystemMessage

Name Type Description Required Default
content chaîne ou tableau Le contenu du message système. Yes
name string Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. No
role enum Le rôle de l’auteur des messages, dans ce cas system.
Valeurs possibles : system
Yes

chatCompletionRequestUserMessage

Name Type Description Required Default
content chaîne ou tableau Le contenu du message utilisateur.
Yes
name string Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. No
role enum Le rôle de l’auteur des messages, dans ce cas user.
Valeurs possibles : user
Yes

chatCompletionRequestAssistantMessage

Name Type Description Required Default
content chaîne ou tableau Le contenu du message de l’assistant. Obligatoire sauf tool_calls indication contraire function_call .
No
function_call object Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle. No
└─ arguments string Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. No
└─ name string Le nom de la fonction à appeler. No
name string Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. No
refusal string Le message de refus de l’assistant. No
role enum Le rôle de l’auteur des messages, dans ce cas assistant.
Valeurs possibles : assistant
Yes
tool_calls chatCompletionMessageToolCalls Les appels d’outils générés par le modèle, tels que les appels de fonction. No

chatCompletionRequestToolMessage

Name Type Description Required Default
content chaîne ou tableau Le contenu du message de l’outil. Yes
role enum Le rôle de l’auteur des messages, dans ce cas tool.
Valeurs possibles : tool
Yes
tool_call_id string Appel d’outil auquel ce message répond. Yes

chatCompletionRequestFunctionMessage

Name Type Description Required Default
content string Le contenu du message de fonction. Yes
name string Le nom de la fonction à appeler. Yes
role enum Le rôle de l’auteur des messages, dans ce cas function.
Valeurs possibles : function
Yes

chatCompletionRequestDeveloperMessageContentPart

Ce composant peut être l’un des suivants :

chatCompletionRequestSystemMessageContentPart

Ce composant peut être l’un des suivants :

chatCompletionRequestUserMessageContentPart

Ce composant peut être l’un des suivants :

chatCompletionRequestAssistantMessageContentPart

Ce composant peut être l’un des suivants :

chatCompletionRequestToolMessageContentPart

Ce composant peut être l’un des suivants :

chatCompletionRequestMessageContentPartText

Name Type Description Required Default
text string Le contenu du texte. Yes
type enum Le type de contenu.
Valeurs possibles : text
Yes

chatCompletionRequestMessageContentPartAudio

Name Type Description Required Default
input_audio object Yes
└─ data string Données audio encodées en Base64. No
└─ format enum Le format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ».

Valeurs possibles : wav, mp3
No
type enum Le type de contenu. Toujours input_audio.
Valeurs possibles : input_audio
Yes

chatCompletionRequestMessageContentPartImage

Name Type Description Required Default
image_url object Yes
└─ detail enum Précise le niveau de détail de l’image. En savoir plus dans le guide Vision.
Valeurs possibles : auto, low, high
No
└─ url string Soit une URL de l’image, soit les données d’image encodées en base64. No
type enum Le type de contenu.
Valeurs possibles : image_url
Yes

chatCompletionRequestMessageContentPartRefusal

Name Type Description Required Default
refusal string Le message de refus généré par le modèle. Yes
type enum Le type de contenu.
Valeurs possibles : refusal
Yes

azureChatExtensionConfiguration

Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

###Discriminator for azureChatExtensionConfiguration

Ce composant utilise la propriété type pour distinguer différents types :

Type Value Schema
azure_search azureSearchChatExtensionConfiguration
azure_cosmos_db azureCosmosDBChatExtensionConfiguration
elasticsearch elasticsearchChatExtensionConfiguration
mongo_db mongoDBChatExtensionConfiguration
pinecone pineconeChatExtensionConfiguration
Name Type Description Required Default
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureChatExtensionType

Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.

Property Value
Description Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Type string
Values azure_search
azure_cosmos_db
elasticsearch
mongo_db
pinecone

azureSearchChatExtensionConfiguration

Une représentation spécifique des options configurables pour Azure Search lorsqu’on l’utilise comme extension de chat OpenAI d’Azure.

Name Type Description Required Default
parameters azureSearchChatExtensionParameters Paramètres pour Azure Search lorsqu’ils sont utilisés comme extension de chat OpenAI Azure. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureSearchChatExtensionParameters

Paramètres pour Azure Search lorsqu’ils sont utilisés comme extension de chat OpenAI Azure.

Name Type Description Required Default
allow_partial_result boolean Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. No False
authentication onYourDataApiKeyAuthenticationOptions ou surVotReDataSystemAssignéGéréIdentitatOptionsAuthentication , ou surVotReDataUtilisateurAssignéGéréIdentityOptionsAuthenticationOusurTVotresDonnéesAccessTokenAuthenticationOptions Yes
embedding_dependency onTonDataDataEndpointVectorisationSource ou surTonDataDéploiementNomVectorisationSource ou surTesDonnéesIntégréeVectorisationSource No
endpoint string Le chemin d’extrémité absolu pour la ressource Azure Search à utiliser. Yes
fields_mapping azureSearchIndexFieldMappingOptions Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Search configurée. No
filter string Search filter. No
in_scope boolean Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Le nom de l’index à utiliser tel que disponible dans la ressource Azure Search référencée. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. No
query_type azureSearchQueryType Le type de requête de recherche Azure qui doit être exécutée lorsqu’on l’utilise comme extension de chat OpenAI Azure. No
semantic_configuration string La configuration sémantique supplémentaire pour la requête. No
strictness integer La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. No
top_n_documents integer Le nombre supérieur configuré de documents à présenter pour la requête configurée. No

azureSearchIndexFieldMappingOptions

Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Search configurée.

Name Type Description Required Default
content_fields array Les noms des champs d’index qui doivent être considérés comme du contenu. No
content_fields_separator string Le motif séparateur que les champs de contenu doivent utiliser. No
filepath_field string Le nom du champ d’index à utiliser comme chemin de fichier. No
image_vector_fields array Les noms des champs qui représentent les données vectorielles d’image. No
title_field string Le nom du champ index à utiliser comme titre. No
url_field string Le nom du champ index à utiliser comme URL. No
vector_fields array Les noms des champs qui représentent des données vectorielles. No

azureSearchQueryType

Le type de requête de recherche Azure qui doit être exécutée lorsqu’on l’utilise comme extension de chat OpenAI Azure.

Property Value
Description Le type de requête de recherche Azure qui doit être exécutée lorsqu’on l’utilise comme extension de chat OpenAI Azure.
Type string
Values simple
semantic
vector
vector_simple_hybrid
vector_semantic_hybrid

azureCosmosDBChatExtensionConfiguration

Une représentation spécifique des options configurables pour Azure Cosmos DB lorsqu’il est utilisé comme extension de chat Azure OpenAI.

Name Type Description Required Default
parameters azureCosmosDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

azureCosmosDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore.

Name Type Description Required Default
allow_partial_result boolean Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. No False
authentication onYourDataConnectionStringAuthenticationOptions Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une chaîne de connexion. Yes
container_name string Le nom du conteneur de ressources Azure Cosmos DB. Yes
database_name string Le nom de base de données MongoDB vCore à utiliser avec Azure Cosmos DB. Yes
embedding_dependency onTonDataDataEndpointVectorisationSource ou surVotReDonnéesDéploiementNomVectorisationSource Yes
fields_mapping azureCosmosDBFieldMappingOptions Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. Yes
in_scope boolean Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Le nom d’index MongoDB vCore à utiliser avec Azure Cosmos DB. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. No
strictness integer La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. No
top_n_documents integer Le nombre supérieur configuré de documents à présenter pour la requête configurée. No

azureCosmosDBFieldMappingOptions

Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.

Name Type Description Required Default
content_fields array Les noms des champs d’index qui doivent être considérés comme du contenu. Yes
content_fields_separator string Le motif séparateur que les champs de contenu doivent utiliser. No
filepath_field string Le nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Le nom du champ index à utiliser comme titre. No
url_field string Le nom du champ index à utiliser comme URL. No
vector_fields array Les noms des champs qui représentent des données vectorielles. Yes

elasticsearchChatExtensionConfiguration

Une représentation spécifique des options configurables pour Elasticsearch lorsqu’il est utilisé comme extension de chat OpenAI sur Azure.

Name Type Description Required Default
parameters elasticsearchChatExtensionParameters Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de chat OpenAI d’Azure. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

elasticsearchChatExtensionParameters

Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de chat OpenAI d’Azure.

Name Type Description Required Default
allow_partial_result boolean Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. No False
authentication onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Yes
embedding_dependency onTonDataDataEndpointVectorisationSource ou surTonDataDéploiementNomVectorisationSource ou surVotReModèleIdVectorisationSource No
endpoint string Le point culminant d’Elasticsearch®. Yes
fields_mapping elasticsearchIndexFieldMappingOptions Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. No
in_scope boolean Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Le nom d’index d’Elasticsearch®. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. No
query_type elasticsearchQueryType Le type de requête de récupération Elasticsearch® qui doit être exécutée lorsqu’il est utilisé comme extension de chat OpenAI sur Azure. No
strictness integer La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. No
top_n_documents integer Le nombre supérieur configuré de documents à présenter pour la requête configurée. No

elasticsearchIndexFieldMappingOptions

Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.

Name Type Description Required Default
content_fields array Les noms des champs d’index qui doivent être considérés comme du contenu. No
content_fields_separator string Le motif séparateur que les champs de contenu doivent utiliser. No
filepath_field string Le nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Le nom du champ index à utiliser comme titre. No
url_field string Le nom du champ index à utiliser comme URL. No
vector_fields array Les noms des champs qui représentent des données vectorielles. No

elasticsearchQueryType

Le type de requête de récupération Elasticsearch® qui doit être exécutée lorsqu’il est utilisé comme extension de chat OpenAI sur Azure.

Property Value
Description Le type de requête de récupération Elasticsearch® qui doit être exécutée lorsqu’il est utilisé comme extension de chat OpenAI sur Azure.
Type string
Values simple
vector

mongoDBChatExtensionConfiguration

Une représentation spécifique des options configurables pour Mongo DB lorsqu’il est utilisé comme extension de chat OpenAI Azure.

Name Type Description Required Default
parameters mongoDBChatExtensionParameters Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation de la base de données Mongo. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

mongoDBChatExtensionParameters

Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation de la base de données Mongo.

Name Type Description Required Default
allow_partial_result boolean Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. No False
app_name string Le nom de l’application de la base de données Mongo. Yes
authentication onYourDataUsernameAndPasswordAuthenticationOptions Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. Yes
collection_name string Le nom de la collection Mongo DB. Yes
database_name string Le nom de la base de données Mongo. Yes
embedding_dependency onTonDataDataEndpointVectorisationSource ou surVotReDonnéesDéploiementNomVectorisationSource Yes
endpoint string Le nom du point de terminaison du cluster Mongo DB. Yes
fields_mapping mongoDBFieldMappingOptions Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource de base de données Mongo configurée. Yes
in_scope boolean Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Le nom de l’index de la base de données Mongo. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. No
strictness integer La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. No
top_n_documents integer Le nombre supérieur configuré de documents à présenter pour la requête configurée. No

mongoDBFieldMappingOptions

Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource de base de données Mongo configurée.

Name Type Description Required Default
content_fields array Les noms des champs d’index qui doivent être considérés comme du contenu. Yes
content_fields_separator string Le motif séparateur que les champs de contenu doivent utiliser. No
filepath_field string Le nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Le nom du champ index à utiliser comme titre. No
url_field string Le nom du champ index à utiliser comme URL. No
vector_fields array Les noms des champs qui représentent des données vectorielles. Yes

pineconeChatExtensionConfiguration

Une représentation spécifique des options configurables pour Pinecone lorsqu’il est utilisé comme extension de chat OpenAI Azure.

Name Type Description Required Default
parameters pineconeChatExtensionParameters Paramètres pour configurer les extensions de chat Azure OpenAI Pinecone. No
type azureChatExtensionType Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse.
L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Yes

pineconeChatExtensionParameters

Paramètres pour configurer les extensions de chat Azure OpenAI Pinecone.

Name Type Description Required Default
allow_partial_result boolean Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. No False
authentication onYourDataApiKeyAuthenticationOptions Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une clé API. Yes
embedding_dependency onYourDataDeploymentNameVectorizationSource Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement interne du modèle d’embeddings dans la même ressource Azure OpenAI. Yes
environment string Le nom d’environnement est Pinecone. Yes
fields_mapping pineconeFieldMappingOptions Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. Yes
in_scope boolean Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. No
include_contexts array Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. No
index_name string Le nom de l’index de la base de données Pinecone. Yes
max_search_queries integer Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. No
strictness integer La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. No
top_n_documents integer Le nombre supérieur configuré de documents à présenter pour la requête configurée. No

pineconeFieldMappingOptions

Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.

Name Type Description Required Default
content_fields array Les noms des champs d’index qui doivent être considérés comme du contenu. Yes
content_fields_separator string Le motif séparateur que les champs de contenu doivent utiliser. No
filepath_field string Le nom du champ d’index à utiliser comme chemin de fichier. No
title_field string Le nom du champ index à utiliser comme titre. No
url_field string Le nom du champ index à utiliser comme URL. No

onYourDataAuthenticationOptions

Les options d’authentification pour Azure OpenAI sur vos données.

Discriminateur pour onYourDataAuthenticationOptions

Ce composant utilise la propriété type pour distinguer différents types :

Type Value Schema
api_key onYourDataApiKeyAuthenticationOptions
connection_string onYourDataConnectionStringAuthenticationOptions
key_and_key_id onYourDataKeyAndKeyIdAuthenticationOptions
encoded_api_key onYourDataEncodedApiKeyAuthenticationOptions
access_token onYourDataAccessTokenAuthenticationOptions
system_assigned_managed_identity onYourDataSystemAssignedManagedIdentityAuthenticationOptions
user_assigned_managed_identity onYourDataUserAssignedManagedIdentityAuthenticationOptions
username_and_password onYourDataUsernameAndPasswordAuthenticationOptions
Name Type Description Required Default
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataContextProperty

La propriété de contexte.

Property Value
Description La propriété de contexte.
Type string
Values citations
intent
all_retrieved_documents

onYourDataAuthenticationType

Les types d’authentification pris en charge par Azure OpenAI On Your Data.

Property Value
Description Les types d’authentification pris en charge par Azure OpenAI On Your Data.
Type string
Values api_key
connection_string
key_and_key_id
encoded_api_key
access_token
system_assigned_managed_identity
user_assigned_managed_identity
username_and_password

onYourDataApiKeyAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une clé API.

Name Type Description Required Default
key string La clé API à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataConnectionStringAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une chaîne de connexion.

Name Type Description Required Default
connection_string string La chaîne de connexion à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataKeyAndKeyIdAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lorsqu’on utilise une paire clé et identifiant de clé Elasticsearch.

Name Type Description Required Default
key string La clé Elasticsearch à utiliser pour l’authentification. No
key_id string L’identifiant de clé Elasticsearch à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataEncodedApiKeyAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une clé API codée par Elasticsearch.

Name Type Description Required Default
encoded_api_key string La clé API codée par Elasticsearch pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataAccessTokenAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation du jeton d’accès.

Name Type Description Required Default
access_token string Le jeton d’accès à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une identité managée attribuée au système.

Name Type Description Required Default
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une identité managée attribuée par l’utilisateur.

Name Type Description Required Default
managed_identity_resource_id string L’identifiant de ressource de l’identité managée attribuée par l’utilisateur à utiliser pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes

onYourDataUsernameAndPasswordAuthenticationOptions

Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.

Name Type Description Required Default
password string The password. pour l’authentification. No
type onYourDataAuthenticationType Les types d’authentification pris en charge par Azure OpenAI On Your Data. Yes
username string Le nom d’utilisateur à utiliser pour l’authentification. No

onYourDataVectorizationSource

Une représentation abstraite d’une source de vectorisation pour Azure OpenAI On Your Data avec recherche vectorielle.

Ce composant utilise la propriété type pour distinguer différents types :

Type Value Schema
endpoint onYourDataEndpointVectorizationSource
deployment_name onYourDataDeploymentNameVectorizationSource
integrated onYourDataIntegratedVectorizationSource
model_id onYourDataModelIdVectorizationSource
Name Type Description Required Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataVectorizationSourceType

Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.

Property Value
Description Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
Type string
Values endpoint
deployment_name
integrated
model_id

onYourDataEndpointVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un appel public d’intégration Azure OpenAI.

Name Type Description Required Default
authentication onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions No
dimensions integer Le nombre de dimensions que les embeddings doivent avoir. Pris en charge uniquement dans text-embedding-3 les modèles et les modèles ultérieurs. No
endpoint string Spécifie l’URL du point de terminaison de ressource à partir duquel les embeddings doivent être récupérés. Elle doit être au format .https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings Le paramètre de requête version API n’est pas autorisé. No
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataDeploymentNameVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement interne de modèle d’embeddings dans la même ressource Azure OpenAI.

Name Type Description Required Default
deployment_name string Spécifie le nom du déploiement du modèle à utiliser pour la vectorisation. Ce déploiement du modèle doit se faire dans la même ressource Azure OpenAI, mais On Your Data utilisera ce déploiement via un appel interne plutôt que public, ce qui permet la recherche vectorielle même dans les réseaux privés. No
dimensions integer Le nombre de dimensions que les embeddings doivent avoir. Pris en charge uniquement dans text-embedding-3 les modèles et les modèles ultérieurs. No
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataIntegratedVectorizationSource

Représente le vectoriseur intégré défini dans la ressource de recherche.

Name Type Description Required Default
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

onYourDataModelIdVectorizationSource

Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, est basée sur un ID de modèle de service de recherche. Actuellement uniquement pris en charge par Elasticsearch®.

Name Type Description Required Default
model_id string Spécifie l’identifiant du modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. No
type onYourDataVectorizationSourceType Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. Yes

azureChatExtensionsMessageContext

Une représentation des informations contextuelles supplémentaires disponibles lorsque des extensions de chat OpenAI d’Azure sont impliquées dans la génération d’une réponse de complétion de chat correspondante. Ces informations contextuelles ne sont remplies que lorsqu’on utilise une requête OpenAI Azure configurée pour utiliser une extension correspondante.

Name Type Description Required Default
all_retrieved_documents array Tous les documents récupérés. No
citations array Le résultat de la récupération de la source de données, utilisé pour générer le message de l’assistant dans la réponse. No
intent string L’intention détectée dans l’historique du chat, utilisée pour passer au tour suivant afin de transmettre le contexte. No

citation

Informations de citation pour un message de réponse à la fin d’un chat.

Name Type Description Required Default
chunk_id string L’identifiant du bloc de la contravention. No
content string Le contenu de la citation. Yes
filepath string Le chemin du fichier de la citation. No
rerank_score number Le score de reclassement du document récupéré. No
title string Le titre de la citation. No
url string L’URL de la source. No

retrievedDocument

Le document récupéré.

Name Type Description Required Default
chunk_id string L’identifiant du bloc de la contravention. No
content string Le contenu de la citation. Yes
data_source_index integer L’index de la source de données. No
filepath string Le chemin du fichier de la citation. No
filter_reason filterReason La raison de filtrage du document récupéré. No
original_search_score number Le score de recherche original du document récupéré. No
rerank_score number Le score de reclassement du document récupéré. No
search_queries array Les requêtes de recherche utilisées pour récupérer le document. No
title string Le titre de la citation. No
url string L’URL de la source. No

filterReason

La raison de filtrage du document récupéré.

Property Value
Description La raison de filtrage du document récupéré.
Type string
Values score
rerank

chatCompletionMessageToolCall

Name Type Description Required Default
function object La fonction que le modèle a appelée. Yes
└─ arguments string Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. No
└─ name string Le nom de la fonction à appeler. No
id string L’identifiant de l’appel à outils. Yes
type toolCallType Le type d’appel de l’outil, dans ce cas function. Yes

toolCallType

Le type d’appel de l’outil, dans ce cas function.

Property Value
Description Le type d’appel de l’outil, dans ce cas function.
Type string
Values function

chatCompletionRequestMessageTool

Name Type Description Required Default
content string Le contenu du message. No
tool_call_id string Appel d’outil auquel ce message répond. No

chatCompletionRequestMessageFunction

Name Type Description Required Default
content string Le contenu du message. No
name string Le contenu du message. No
role enum Le rôle de l’auteur des messages, dans ce cas function.
Valeurs possibles : function
No

createChatCompletionResponse

Représente une réponse de fin de discussion retournée par le modèle, basée sur l’entrée fournie.

Name Type Description Required Default
choices array Une liste des options pour compléter le chat. Peut être plus d’un si n c’est supérieur à 1. Yes
created integer L’horodatage Unix (en quelques secondes) de la création de la fin du chat. Yes
id string Un identifiant unique pour la fin du chat. Yes
model string Le modèle utilisé pour compléter le chat. Yes
object enum Le type d’objet, qui est toujours chat.completion.
Valeurs possibles : chat.completion
Yes
prompt_filter_results promptFilterResults Filtrage de contenu pour zéro ou plus d’invites dans la requête. Dans une requête en streaming, les résultats pour différentes invitations peuvent arriver à des moments ou dans des ordres différents. No
system_fingerprint string Cette empreinte digitale représente la configuration backend avec laquelle le modèle fonctionne.

Peut être utilisé conjointement avec le seed paramètre de requête pour comprendre quand des modifications en backend ont été effectuées pouvant impacter le déterminisme.
No
usage completionUsage Statistiques d’utilisation pour la demande de complétion. No

createChatCompletionStreamResponse

Représente un segment diffusé d’une réponse de fin de chat retournée par le modèle, basé sur l’entrée fournie.

Name Type Description Required Default
choices array Une liste des options pour compléter le chat. Peut contenir plus d’un élément si n est supérieur à 1.
Yes
created integer L’horodatage Unix (en quelques secondes) de la création de la fin du chat. Chaque morceau a le même horodatage. Yes
id string Un identifiant unique pour la fin du chat. Chaque morceau a le même ID. Yes
model string Le modèle pour générer la complétion. Yes
object enum Le type d’objet, qui est toujours chat.completion.chunk.
Valeurs possibles : chat.completion.chunk
Yes
system_fingerprint string Cette empreinte digitale représente la configuration backend avec laquelle le modèle fonctionne.
Peut être utilisé conjointement avec le seed paramètre de requête pour comprendre quand des modifications en backend ont été effectuées pouvant impacter le déterminisme.
No

chatCompletionStreamResponseDelta

Un delta de complétion du chat généré par les réponses du modèle en streaming.

Name Type Description Required Default
content string Le contenu du message du bloc. No
function_call object Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle. No
└─ arguments string Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. No
└─ name string Le nom de la fonction à appeler. No
refusal string Le message de refus généré par le modèle. No
role enum Le rôle de l’auteur de ce message.
Valeurs possibles : system, user, assistant, tool
No
tool_calls array No

chatCompletionMessageToolCallChunk

Name Type Description Required Default
function object No
└─ arguments string Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. No
└─ name string Le nom de la fonction à appeler. No
id string L’identifiant de l’appel à outils. No
index integer Yes
type enum Le type d’outil. Actuellement, seul function est pris en charge.
Valeurs possibles : function
No

chatCompletionStreamOptions

Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true.

Name Type Description Required Default
include_usage boolean Si elle est définie, un segment supplémentaire sera diffusé avant le data: [DONE] message. Le usage champ sur ce chunk affiche les statistiques d’utilisation du token pour l’ensemble de la requête, et le choices champ restera toujours un tableau vide. Tous les autres chunks incluront également un usage champ, mais avec une valeur nulle.
No

chatCompletionChoiceLogProbs

Enregistrez les informations de probabilité pour le choix.

Name Type Description Required Default
content array Une liste des jetons de contenu des messages avec les informations de probabilité logarithmique. Yes
refusal array Une liste de jetons de refus de message avec des informations de probabilité logarithmique. No

chatCompletionTokenLogprob

Name Type Description Required Default
bytes array Une liste d’entiers représentant la représentation UTF-8 octets du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et où leurs représentations en octets doivent être combinées pour générer la représentation du texte correcte. Peut l’être null s’il n’y a pas de représentation en octets pour le jeton. Yes
logprob number La probabilité logarithmique de ce jeton. Yes
token string The token. Yes
top_logprobs array Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins de top_logprobs demandes retournées. Yes

chatCompletionResponseMessage

Un message de complétion de chat généré par le modèle.

Name Type Description Required Default
audio object Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. No
└─ data string Base64 a encodé des octets audio générés par le modèle, dans le format spécifié dans la requête.
No
└─ expires_at integer L’horodatage Unix (en secondes) indiquant que cette réponse audio ne sera plus accessible sur le serveur pour une utilisation dans des conversations à plusieurs tours.
No
└─ id string Identifiant unique pour cette réponse audio. No
└─ transcript string Transcription de l’audio généré par le modèle. No
content string Le contenu du message. Yes
context azureChatExtensionsMessageContext Une représentation des informations contextuelles supplémentaires disponibles lorsque des extensions de chat OpenAI d’Azure sont impliquées dans la génération d’une réponse de complétion de chat correspondante. Ces informations contextuelles ne sont remplies que lorsqu’on utilise une requête OpenAI Azure configurée pour utiliser une extension correspondante. No
function_call chatCompletionFunctionCall Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle. No
refusal string Le message de refus généré par le modèle. Yes
role chatCompletionResponseMessageRole Le rôle de l’auteur du message de réponse. Yes
tool_calls array Les appels d’outils générés par le modèle, tels que les appels de fonction. No

chatCompletionResponseMessageRole

Le rôle de l’auteur du message de réponse.

Property Value
Description Le rôle de l’auteur du message de réponse.
Type string
Values assistant

chatCompletionToolChoiceOption

Contrôle quel outil (le cas échéant) est appelé par le modèle. none signifie que le modèle n’appellera aucun outil et générera un message. auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils. required signifie que le modèle doit appeler un ou plusieurs outils. Spécifier un outil particulier force {"type": "function", "function": {"name": "my_function"}} le modèle à appeler cet outil. none est la norme par défaut lorsqu’aucun outil n’est présent. auto est la norme par défaut si des outils sont présents.

Ce composant peut être l’un des suivants :

chatCompletionNamedToolChoice

Spécifie un outil que le modèle doit utiliser. À utiliser pour forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
function object Yes
└─ name string Le nom de la fonction à appeler. No
type enum Le type d’outil. Actuellement, seul function est pris en charge.
Valeurs possibles : function
Yes

ParallelToolCalls

S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil.

Aucune propriété définie pour ce composant.

PredictionContent

Contenu de sortie prédit statique, comme le contenu d’un fichier texte en cours de régénération.

Name Type Description Required Default
content chaîne ou tableau Le contenu qui doit être correspondu lors de la génération d’une réponse modèle. Si les jetons générés correspondent à ce contenu, la réponse complète du modèle peut être retournée beaucoup plus rapidement. Yes
type enum Le type de contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.
Valeurs possibles : content
Yes

chatCompletionMessageToolCalls

Les appels d’outils générés par le modèle, tels que les appels de fonction.

Aucune propriété définie pour ce composant.

ChatCompletionModalities

Types de sortie que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :

["text", "audio"]

Aucune propriété définie pour ce composant.

chatCompletionFunctionCall

Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle.

Name Type Description Required Default
arguments string Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. Yes
name string Le nom de la fonction à appeler. Yes

completionUsage

Statistiques d’utilisation pour la demande de complétion.

Name Type Description Required Default
completion_tokens integer Nombre de jetons dans la complétion générée. Yes
completion_tokens_details object Répartition des jetons utilisés dans une complétion. No
└─ accepted_prediction_tokens integer Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction apparaissant dans la complétion. No
└─ audio_tokens integer Jetons d’entrée audio générés par le modèle. No
└─ reasoning_tokens integer Des jetons générés par le modèle pour raisonner. No
└─ rejected_prediction_tokens integer Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction qui n’apparaissaient pas dans la complétion. Cependant, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le total des jetons de complétion pour les besoins de facturation, de sortie et de limites de fenêtres contextuelles. No
prompt_tokens integer Nombre de jetons dans la consigne. Yes
prompt_tokens_details object Détails des jetons de la consigne. No
└─ audio_tokens integer Jetons d’entrée audio présents dans la demande. No
└─ cached_tokens integer Le nombre de jetons d’invite mis en cache. No
total_tokens integer Nombre total de jetons utilisés dans la requête (prompt + complétion). Yes

chatCompletionTool

Name Type Description Required Default
function FunctionObject Yes
type enum Le type d’outil. Actuellement, seul function est pris en charge.
Valeurs possibles : function
Yes

FunctionParameters

Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.

Aucune propriété définie pour ce composant.

FunctionObject

Name Type Description Required Default
description string Une description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
name string Le nom de la fonction à appeler. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. Yes
parameters FunctionParameters Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format.

Omettre parameters définit une fonction avec une liste de paramètres vide.
No
strict boolean S’il faut activer une stricte adhésion au schéma lors de la génération de l’appel de fonction. Si le modèle est réglé sur true, le modèle suivra exactement le schéma défini dans le parameters champ. Seul un sous-ensemble de JSON Schema est pris en charge lorsque strict est true. No False

ResponseFormatText

Name Type Description Required Default
type enum Le type de format de réponse défini : text
Valeurs possibles : text
Yes

ResponseFormatJsonObject

Name Type Description Required Default
type enum Le type de format de réponse défini : json_object
Valeurs possibles : json_object
Yes

ResponseFormatJsonSchemaSchema

Le schéma pour le format de réponse est décrit comme un objet de schéma JSON.

Aucune propriété définie pour ce composant.

ResponseFormatJsonSchema

Name Type Description Required Default
json_schema object Yes
└─ description string Une description du format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format. No
└─ name string Le nom du format de la réponse. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. No
└─ schema ResponseFormatJsonSchemaSchema Le schéma pour le format de réponse est décrit comme un objet de schéma JSON. No
└─ strict boolean S’il faut activer une stricte adhésion au schéma lors de la génération de la sortie. Si le modèle est réglé sur vrai, le modèle suivra toujours exactement le schéma défini sur le schema terrain. Seul un sous-ensemble de JSON Schema est pris en charge lorsque strict est true. No False
type enum Le type de format de réponse défini : json_schema
Valeurs possibles : json_schema
Yes

chatCompletionChoiceCommon

Name Type Description Required Default
finish_reason string No
index integer No

createTranslationRequest

Translation request.

Name Type Description Required Default
file string Le fichier audio à traduire. Yes
prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Le prompt doit être en anglais. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. No 0

audioResponse

Réponse à la traduction ou à la transcription lorsque response_format était json

Name Type Description Required Default
text string Texte traduit ou transcrit. Yes

audioVerboseResponse

Réponse à la traduction ou à la transcription lorsque response_format était verbose_json

Name Type Description Required Default
duration number Duration. No
language string Language. No
segments array No
task string Type de tâche audio. No
text string Texte traduit ou transcrit. Yes
words array No

audioResponseFormat

Définit le format de la sortie.

Property Value
Description Définit le format de la sortie.
Type string
Values json
text
srt
verbose_json
vtt

createTranscriptionRequest

Transcription request.

Name Type Description Required Default
file string L’objet du fichier audio à transcrire. Yes
language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 améliore la précision et la latence. No
prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. La consigne doit correspondre au langage audio. No
response_format audioResponseFormat Définit le format de la sortie. No
temperature number La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. No 0
timestamp_granularities[] array Les détails temporels à remplir pour cette transcription. response_format doit être réglé verbose_json pour utiliser des granularités horodatages. L’une ou l’autre de ces options est prise en charge : word, ou segment. Remarque : Il n’y a pas de latence supplémentaire pour les horodatages de segments, mais la génération de horodatages de mots entraîne une latence supplémentaire. No ['segment']

audioSegment

Segment de transcription ou de traduction.

Name Type Description Required Default
avg_logprob number Probabilité logarithmique moyenne. No
compression_ratio number Compression ratio. No
end number Décalage de fin de segment. No
id integer Segment identifier. No
no_speech_prob number Probabilité de « pas de parole ». No
seek number Décalage du segment. No
start number Décalage de début de segment. No
temperature number Temperature. No
text string Segment text. No
tokens array Des symboles du texte. No

audioWord

Mot de transcription ou de traduction.

Name Type Description Required Default
end number Décalage de fin de Word. No
start number Décalage de départ Word. No
word string Word No

createSpeechRequest

Speech request.

Name Type Description Required Default
input string Le texte pour synthétiser l’audio. La longueur maximale est de 4 096 caractères. Yes
response_format enum Le format pour synthétiser l’audio.
Valeurs possibles : mp3, opus, aac, flac, wav, pcm
No
speed number La vitesse de l’audio synthétisé. Sélectionnez une valeur de 0.25 vers 4.0. 1.0 est la norme par défaut. No 1.0
voice enum La voix à utiliser pour la synthèse vocale.
Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer
Yes

imageQuality

La qualité de l’image qui sera générée.

Property Value
Description La qualité de l’image qui sera générée.
Type string
Default auto
Values auto
high
medium
low
hd
standard

imagesResponseFormat

Le format dans lequel les images générées sont renvoyées.

Property Value
Description Le format dans lequel les images générées sont renvoyées.
Type string
Default url
Values url
b64_json

imagesOutputFormat

Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de série.

Property Value
Description Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de la série GPT-image-1.
Type string
Default png
Values png
jpeg

imageSize

La taille des images générées.

Property Value
Description La taille des images générées.
Type string
Default auto
Values auto
1792x1024
1024x1792
1024x1024
1024x1536
1536x1024

imageStyle

Le style des images générées. Pris en charge uniquement pour DALL-E-3.

Property Value
Description Le style des images générées. Pris en charge uniquement pour DALL-E-3.
Type string
Default vivid
Values vivid
natural

imageBackground

Permet de définir la transparence pour l’arrière-plan de l’image ou des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1.

Property Value
Description Permet de définir la transparence pour l’arrière-plan de l’image ou des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1.
Type string
Default auto
Values transparent
opaque
auto

imageGenerationsRequest

Name Type Description Required Default
background imageBackground Permet de définir la transparence pour l’arrière-plan de l’image ou des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. No auto
n integer Le nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. No 1
output_compression integer Le niveau de compression (0-100%) pour les images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1 avec le format de sortie jpeg. No 100
output_format imagesOutputFormat Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de la série GPT-image-1. No png
prompt string Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères pour les modèles de la série gpt-image-1 et de 4 000 caractères pour dall-e-3 Yes
quality imageQuality La qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Le format dans lequel les images générées sont renvoyées. Pris en charge uniquement pour DALL-E-3. No url
size imageSize La taille des images générées. No auto
style imageStyle Le style des images générées. Pris en charge uniquement pour DALL-E-3. No vivid
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

imageEditsRequest

Name Type Description Required Default
image chaîne ou tableau L’image à modifier. Il doit s’agir d’un fichier image pris en charge ou d’un tableau d’images. Chaque image doit être un fichier png ou jpg de moins de 25 Mo. Yes
mask string Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être éditée. Si plusieurs images sont fournies, le masque sera appliqué sur la première image. Il doit s’agir d’un fichier PNG valide, de moins de 4 Mo, et avoir les mêmes dimensions que l’image. No
n integer Le nombre d’images à générer. No 1
prompt string Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères. Yes
quality imageQuality La qualité de l’image qui sera générée. No auto
response_format imagesResponseFormat Le format dans lequel les images générées sont renvoyées. No url
size imageSize La taille des images générées. No auto
user string Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. No

generateImagesResponse

Name Type Description Required Default
created integer L’horodatage Unix lors de la création de l’opération. Yes
data array Les données de résultat de l’opération, si elles ont réussi Yes
usage imageGenerationsUsage Représente les détails d’utilisation des jetons pour les requêtes de génération d’images. Uniquement pour les modèles GPT-image-1. No

imageResult

L’URL de l’image ou l’image encodée si elle réussit, et une erreur sinon.

Name Type Description Required Default
b64_json string L’image codée en base64 No
content_filter_results dalleContentFilterResults Informations sur les résultats du filtrage de contenu. No
prompt_filter_results dalleFilterResults Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. No
revised_prompt string La demande utilisée pour générer l’image, s’il y avait une révision de la requête. No
url string L’URL de l’image. No

imageGenerationsUsage

Représente les détails d’utilisation des jetons pour les requêtes de génération d’images. Uniquement pour les modèles GPT-image-1.

Name Type Description Required Default
input_tokens integer Le nombre de jetons d’entrée. No
input_tokens_details object Une analyse détaillée des jetons d’entrée. No
└─ image_tokens integer Le nombre de jetons d’image. No
└─ text_tokens integer Le nombre de jetons textuels. No
output_tokens integer Le nombre de jetons de sortie. No
total_tokens integer Le nombre total de jetons utilisés. No

line

Un objet ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.

Name Type Description Required Default
spans array Un tableau de plages qui représentent les objets détectés et leurs informations de boîtes englobantes. Yes
text string Yes

span

Un objet span qui représente un objet détecté et ses informations de boîte englobante.

Name Type Description Required Default
length integer La longueur de l’étendue en caractères, mesurée en points de code Unicode. Yes
offset integer Le décalage de caractère dans le texte où commence l’étendue. Ce décalage est défini comme la position du premier caractère de l’étendue, comptant à partir du début du texte comme des points de code Unicode. Yes
polygon array Un tableau d’objets représentant des points dans le polygone qui enferme l’objet détecté. Yes
text string Le contenu textuel de l’étendue qui représente l’objet détecté. Yes

runCompletionUsage

Statistiques d’utilisation liées à la course. Cette valeur sera null si la course n’est pas en état terminal (c’est-à-dire in_progress, queued, etc.).

Name Type Description Required Default
completion_tokens integer Nombre de jetons de complétion utilisés au cours de la partie. Yes
prompt_tokens integer Nombre de jetons d’invite utilisés au cours de la partie. Yes
total_tokens integer Nombre total de jetons utilisés (invite + complétion). Yes

runStepCompletionUsage

Statistiques d’utilisation liées à la phase de course. Cette valeur sera null alors que le statut de l’étape de course est in_progress.

Name Type Description Required Default
completion_tokens integer Nombre de jetons de complétion utilisés au cours de l’étape de la course. Yes
prompt_tokens integer Nombre de jetons de prompt utilisés au cours de l’étape de la course. Yes
total_tokens integer Nombre total de jetons utilisés (invite + complétion). Yes

assistantsApiResponseFormatOption

Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.

Ce composant peut être l’un des suivants :

assistantsApiResponseFormat

Un objet décrivant la sortie attendue du modèle. Si json_object seuls function les types tools sont autorisés à être transmis à la Run. Si text le modèle peut retourner du texte ou toute valeur nécessaire.

Name Type Description Required Default
type string Doit être l’un des text ou json_object. No text

type Enum : AssistantsApiResponseFormat

Value Description
text
json_object

assistantObject

Représente un assistant qui peut appeler le modèle et utiliser des outils.

Name Type Description Required Default
created_at integer L’horodatage Unix (en secondes) indique la création de l’assistant. Yes
description string La description de l’assistant. La longueur maximale est de 512 caractères.
Yes
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
instructions string Les instructions système que l’assistant utilise. La longueur maximale est de 256 000 caractères.
Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
Yes
model string ID du modèle à utiliser. Yes
name string Le nom de l’assistante. La longueur maximale est de 256 caractères.
Yes
object string Le type d’objet, qui est toujours assistant. Yes
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array L’identifiant du magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_search, ou function.
Yes []
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1

objet Enum : AssistantObjectType

Value Description
assistant Le type d’objet, qui est toujours assistant

createAssistantRequest

Name Type Description Required Default
description string La description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Les instructions système que l’assistant utilise. La longueur maximale est de 256 000 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string Yes
name string Le nom de l’assistante. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le stockage vectoriel est attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
└─ vector_stores array Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function.
No []
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1

modifyAssistantRequest

Name Type Description Required Default
description string La description de l’assistant. La longueur maximale est de 512 caractères.
No
instructions string Les instructions système que l’assistant utilise. La longueur maximale est de 32 768 caractères.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string No
name string Le nom de l’assistante. La longueur maximale est de 256 caractères.
No
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Outrepasse la liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Remplace le stockage vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function.
No []
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1

deleteAssistantResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

objet Enum : DeleteAssistantResponseState

Value Description
assistant.deleted

listAssistantsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

assistantToolsCode

Name Type Description Required Default
type string Le type d’outil défini : code_interpreter Yes

type Enum : assistantCodeCodeType

Value Description
code_interpreter

assistantToolsFileSearch

Name Type Description Required Default
file_search object Des dérogations pour l’outil de recherche de fichiers. No
└─ max_num_results integer Le nombre maximal de résultats que l’outil de recherche de fichiers devrait produire. Par défaut est 20 pour les modèles GPT-4* et 5 pour les GPT-3,5-turbo. Ce nombre devrait être compris entre 1 et 50.

Notez que l’outil de recherche de fichiers peut produire moins de résultats.max_num_results
No
type string Le type d’outil défini : file_search Yes

type Enum : assistantToolsFileSearchType

Value Description
file_search

assistantToolsFileSearchTypeOnly

Name Type Description Required Default
type string Le type d’outil défini : file_search Yes

type Enum : assistantToolsFileSearchType

Value Description
file_search

assistantToolsFunction

Name Type Description Required Default
function object La définition de la fonction. Yes
└─ description string Une description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. No
└─ name string Le nom de la fonction à appeler. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. No
└─ parameters chatCompletionFunctionParameters Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format. No
type string Le type d’outil défini : function Yes

type Enum : assistantToolsFunction

Value Description
function

truncationObject

Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie.

Name Type Description Required Default
last_messages integer Le nombre de messages les plus récents du thread lors de la construction du contexte de la séquence. No
type string La stratégie de troncature à utiliser pour le thread. La valeur par défaut est auto. Si elle est définie à last_messages, le thread sera tronqué aux n messages les plus récents du thread. Lorsqu’elle est définie à auto, les messages au milieu du thread seront supprimés pour correspondre à la longueur contextuelle du modèle, max_prompt_tokens. Yes

type Enum : troncatureType

Value Description
auto
last_messages

assistantsApiToolChoiceOption

Contrôle quel outil (le cas échéant) est appelé par le modèle. none signifie que le modèle n’appellera aucun outil et générera un message. auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil. Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.

Ce composant peut être l’un des suivants :

assistantsNamedToolChoice

Spécifie un outil que le modèle doit utiliser. À utiliser pour forcer le modèle à appeler un outil spécifique.

Name Type Description Required Default
function object No
└─ name string Le nom de la fonction à appeler. No
type string Le type d’outil. Si le type est function, le nom de la fonction doit être défini Yes

type Enum : AssistantsNamedToolChoiceType

Value Description
function
code_interpreter
file_search

runObject

Représente une exécution sur un thread.

Name Type Description Required Default
assistant_id string L’identifiant de l’assistant utilisé pour l’exécution de cette course. Yes
cancelled_at integer L’horodatage Unix (en quelques secondes) indique quand l’exécution a été annulée. Yes
completed_at integer L’horodatage Unix (en secondes) indique la fin de l’exécution. Yes
created_at integer L’horodatage Unix (en secondes) indique la création de l’exécution. Yes
expires_at integer L’horodatage Unix (en secondes) indique quand l’exécution expire. Yes
failed_at integer L’horodatage Unix (en secondes) pour indiquer l’échec de l’exécution. Yes
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
incomplete_details object Détails sur les raisons pour lesquelles la série est incomplète. Ça le null sera si la série n’est pas incomplète. Yes
└─ reason string La raison pour laquelle la série est incomplète. Cela indiquera quelle limite spécifique de jetons a été atteinte au cours de la partie. No
instructions string Les instructions que l’assistant a utilisées pour cette course. Yes
last_error object La dernière erreur associée à cette exécution. Ça le null sera s’il n’y a pas d’erreurs. Yes
└─ code string L’un des server_error ou rate_limit_exceeded. No
└─ message string Une description lisible par l’homme de l’erreur. No
max_completion_tokens integer Le nombre maximal de jetons de complétion spécifiés à avoir utilisés au cours de la course.
Yes
max_prompt_tokens integer Le nombre maximal de jetons d’invite spécifiés à utiliser au cours de la séquence.
Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
Yes
model string Le modèle que l’assistant a utilisé pour cette séquence. Yes
object string Le type d’objet, qui est toujours thread.run. Yes
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
required_action object Détails sur l’action nécessaire pour poursuivre la course. Ce sera null le cas si aucune action n’est nécessaire. Yes
└─ submit_tool_outputs object Détails sur les sorties de l’outil nécessaires pour que cette série se poursuive. No
└─ tool_calls array Une liste des appels d’outils pertinents. No
└─ type enum Pour l’instant, c’est toujours submit_tool_outputsça.
Valeurs possibles : submit_tool_outputs
No
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
Yes
started_at integer L’horodatage Unix (en quelques secondes) indique le moment où la sortie a été lancée. Yes
status string Le statut de la séquence, qui peut être soit queued, in_progress, requires_action, cancelling, failedcancelled, completed, ou expired. Yes
temperature number La température d’échantillonnage utilisée pour cette course. Si ce n’est pas réglé, par défaut est à 1. No
thread_id string L’identifiant des threads qui ont été exécutés dans le cadre de cette exécution. Yes
tool_choice assistantsApiToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Yes
tools array La liste des outils que l’assistant a utilisés pour cette course. Yes []
top_p number La valeur d’échantillonnage du noyau utilisée pour cette course. Si ce n’est pas réglé, par défaut est à 1. No
truncation_strategy truncationObject Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. Yes
usage runCompletionUsage Statistiques d’utilisation liées à la course. Cette valeur sera null si la course n’est pas en état terminal (c’est-à-dire in_progress, queued, etc.). Yes

object Enum : runObjectType

Value Description
thread.run Le type d’objet run qui est toujours thread.run

status Enum : RunObjectStatus

Value Description
queued L’état en file d’attente
in_progress L’État in_progress
requires_action L’État required_action
cancelling L’état d’annulation
cancelled L’État annulé
failed L’État en faillite
completed L’état achevé
expired L’État expiré

createRunRequest

Name Type Description Required Default
additional_instructions string Ajoute des instructions supplémentaires à la fin des instructions pour la sélection. Cela est utile pour modifier le comportement par exécution sans outrepasser d’autres instructions. No
additional_messages array Ajoute des messages supplémentaires au fil avant de créer la séquence. No
assistant_id string L’identifiant de l’assistant à utiliser pour exécuter cette course. Yes
instructions string Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string L’ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message.
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
tool_choice assistantsApiToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tools array Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. No
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. No

listRunsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

modifyRunRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No

submitToolOutputsRunRequest

Name Type Description Required Default
stream boolean Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message.
No
tool_outputs array Une liste des outils pour lesquels les résultats sont soumis. Yes

runToolCallObject

Objets d’appel d’outils

Name Type Description Required Default
function object La définition de la fonction. Yes
└─ arguments string Les arguments que le modèle attend de vous à transmettre à la fonction. No
└─ name string Le nom de la fonction. No
id string L’identifiant de l’appel à outils. Cet ID doit être référencé lorsque vous soumettez les sorties de l’outil en utilisant les sorties d’outil d’envoi pour exécuter endpointendpoint. Yes
type string Le type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours functionça. Yes

type Enum : RunToolCallObjectType

Value Description
function

createThreadAndRunRequest

Name Type Description Required Default
assistant_id string L’identifiant de l’assistant à utiliser pour exécuter cette course. Yes
instructions string Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. No
max_completion_tokens integer Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations.
No
max_prompt_tokens integer Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations.
No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
model string L’identifiant des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. No
parallel_tool_calls ParallelToolCalls S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. No True
response_format assistantsApiResponseFormatOption Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.

Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.

Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
No
stream boolean Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message.
No
stream_options chatCompletionStreamOptions Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true.
No None
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
No 1
thread createThreadRequest No
tool_choice assistantsApiToolChoiceOption Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
No
tool_resources object Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array L’identifiant du magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant.
No
tools array Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. No
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela ou la température, mais pas les deux.
No 1
truncation_strategy truncationObject Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. No

threadObject

Représente un fil qui contient des messages.

Name Type Description Required Default
created_at integer L’horodatage Unix (en quelques secondes) indique la création du thread. Yes
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
Yes
object string Le type d’objet, qui est toujours thread. Yes
tool_resources object Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
Yes
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No

objet Enum : ThreadObjectType

Value Description
thread Le type d’objet thread qui est toujours thread

createThreadRequest

Name Type Description Required Default
messages array Une liste de messages pour commencer le fil. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
tool_resources object Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No
└─ vector_stores array Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No

modifyThreadRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
tool_resources object Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel.
No
└─ code_interpreter object No
└─ file_ids array Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil.
No []
└─ file_search object No
└─ vector_store_ids array Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil.
No

deleteThreadResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

objet Enum : DeleteThreadResponseObjectState

Value Description
thread.deleted L’état de l’objet réponse du fil supprimé, qui est thread.deleted

listThreadsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageObject

Représente un message au sein d’un thread.

Name Type Description Required Default
assistant_id string Le cas échéant, l’identifiant de l’assistant qui a rédigé ce message. Yes
attachments array Une liste des fichiers attachés au message, et des outils auxquels ils ont été ajoutés. Yes
completed_at integer L’horodatage Unix (en secondes) indique la date de complétion du message. Yes
content array Le contenu du message sous forme de texte et/ou d’images. Yes
created_at integer L’horodatage Unix (en secondes) indique la création du message. Yes
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
incomplete_at integer L’horodatage Unix (en secondes) indique quand le message était marqué comme incomplet. Yes
incomplete_details object Sur un message incomplet, des détails expliquant pourquoi le message est incomplet. Yes
└─ reason string La raison pour laquelle le message est incomplet. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
Yes
object string Le type d’objet, qui est toujours thread.message. Yes
role string L’entité qui a produit le message. L’un des user ou assistant. Yes
run_id string Le cas échéant, l’ID de la run associée à l’auteur de ce message. Yes
status string Le statut du message, qui peut être soit in_progress, incomplete, soit completed. Yes
thread_id string L’identifiant du thread auquel ce message appartient. Yes

objet Enum : MessageObjectType

Value Description
thread.message Le type d’objet message qui est thread.message

status Enum : MessageObjectStatus

Value Description
in_progress
incomplete
completed

rôle Enum : MessageObjectRole

Value Description
user
assistant

messageDeltaObject

Représente un delta de message, c’est-à-dire tout champ modifié sur un message pendant le streaming.

Name Type Description Required Default
delta object Le delta contenant les champs qui ont changé sur le Message. Yes
└─ content array Le contenu du message sous forme de texte et/ou d’images. No
└─ role string L’entité qui a produit le message. L’un des user ou assistant. No
id string L’identifiant du message, qui peut être référencé dans les points de terminaison de l’API. Yes
object string Le type d’objet, qui est toujours thread.message.delta. Yes

objet Enum : MessageDeltaObjectType

Value Description
thread.message.delta

createMessageRequest

Name Type Description Required Default
attachments array Une liste des fichiers attachés au message, et les outils auxquels ils doivent être ajoutés. No
content string Le contenu du message. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
role string Le rôle de l’entité qui crée le message. Les valeurs autorisées incluent :
- user: Indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.
- assistant: Indique que le message est généré par l’assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation.
Yes

rôle Enum : CreateMessageRequestRole

Value Description
user
assistant

modifyMessageRequest

Name Type Description Required Default
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No

deleteMessageResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

objet Enum : DeleteMessageResponseObject

Value Description
thread.message.deleted L’état de l’objet de réponse au message supprimé

listMessagesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

messageContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Name Type Description Required Default
image_file object Yes
└─ file_id string L’ID du fichier de l’image dans le contenu du message. No
type string Toujours image_file. Yes

type Enum : MessageContentImageFileObjectType

Value Description
image_file Le type de fichier image de contenu du message

messageContentTextObject

Le contenu textuel qui fait partie d’un message.

Name Type Description Required Default
text object Yes
└─ annotations array No
└─ value string Les données qui composent le texte. No
type string Toujours text. Yes

type Enum : messageContenttextObjectType

Value Description
text Le contenu du message texte Type d’objet

messageContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’assistant ou au message. Généré lorsque l’assistant utilise l’outil de « récupération » pour rechercher des fichiers.

Name Type Description Required Default
end_index integer Yes
file_citation object Yes
└─ file_id string L’identifiant du fichier spécifique dont provient la citation. No
start_index integer Yes
text string Le texte dans le contenu du message qui doit être remplacé. Yes
type string Toujours file_citation. Yes

type Enum : FileCitationObjectType

Value Description
file_citation Le type d’objet de citation du fichier

messageContentTextAnnotationsFilePathObject

Une URL pour le fichier généré lorsque l’assistant a utilisé l’outil code_interpreter pour générer un fichier.

Name Type Description Required Default
end_index integer Yes
file_path object Yes
└─ file_id string L’identifiant du fichier qui a été généré. No
start_index integer Yes
text string Le texte dans le contenu du message qui doit être remplacé. Yes
type string Toujours file_path. Yes

type Enum : FilePathObjectType

Value Description
file_path Le type d’objet chemin de fichier

messageDeltaContentImageFileObject

Fait référence à un fichier image dans le contenu d’un message.

Name Type Description Required Default
image_file object No
└─ file_id string L’ID du fichier de l’image dans le contenu du message. No
index integer L’index du contenu dans le message. Yes
type string Toujours image_file. Yes

type Enum : MessageDeltaContentImageFileObjectType

Value Description
image_file

messageDeltaContentTextObject

Le contenu textuel qui fait partie d’un message.

Name Type Description Required Default
index integer L’index du contenu dans le message. Yes
text object No
└─ annotations array No
└─ value string Les données qui composent le texte. No
type string Toujours text. Yes

type Enum : MessageDeltaContentTextObjectType

Value Description
text

messageDeltaContentTextAnnotationsFileCitationObject

Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’assistant ou au message. Généré lorsque l’assistant utilise l’outil « file_search » pour rechercher dans les fichiers.

Name Type Description Required Default
end_index integer No
file_citation object No
└─ file_id string L’identifiant du fichier spécifique dont provient la citation. No
└─ quote string La citation spécifique dans le dossier. No
index integer L’index de l’annotation dans la partie contenu textuel. Yes
start_index integer No
text string Le texte dans le contenu du message qui doit être remplacé. No
type string Toujours file_citation. Yes

type Enum : MessageDeltaContenuTexteAnnotationsFichierCitationObjectType

Value Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Une URL pour le fichier généré lorsque l’assistant a utilisé l’outil code_interpreter pour générer un fichier.

Name Type Description Required Default
end_index integer No
file_path object No
└─ file_id string L’identifiant du fichier qui a été généré. No
index integer L’index de l’annotation dans la partie contenu textuel. Yes
start_index integer No
text string Le texte dans le contenu du message qui doit être remplacé. No
type string Toujours file_path. Yes

type Enum : MessageDeltaContenuTexteAnnotationsFilePathObjectType

Value Description
file_path

runStepObject

Représente une étape dans l’exécution d’une partie.

Name Type Description Required Default
assistant_id string L’identifiant de l’assistant associé au pas de course. Yes
cancelled_at integer L’horodatage Unix (en quelques secondes) indique quand l’étape de run a été annulée. Yes
completed_at integer L’horodatage Unix (en secondes) indique la fin de l’étape d’exécution. Yes
created_at integer L’horodatage Unix (en secondes) indique la création de l’étape d’exécution. Yes
expired_at integer L’horodatage Unix (en secondes) indique quand l’étape d’exécution a expiré. Une étape est considérée comme expirée si la série mère est expirée. Yes
failed_at integer L’horodatage Unix (en quelques secondes) indique quand l’étape d’exécution échoue. Yes
id string L’identifiant de l’étape d’exécution, qui peut être référencé dans les points de terminaison API. Yes
last_error object La dernière erreur associée à cette étape de course. Ça le null sera s’il n’y a pas d’erreurs. Yes
└─ code string L’un des server_error ou rate_limit_exceeded. No
└─ message string Une description lisible par l’homme de l’erreur. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
Yes
object string Le type d’objet, qui est toujours assistant.run.step. Yes
run_id string L’identifiant de la course à laquelle cette étape de course fait partie. Yes
status string Le statut de la séquence, qui peut être soit in_progress, cancelled, failed, completed, ou expired. Yes
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Les détails de la course à pied. Yes
thread_id string L’identifiant des threads qui ont été exécutés. Yes
type string Le type de pas de course, qui peut être soit message_creation soit tool_calls. Yes

objet Enum : RunStepObjectType

Value Description
assistant.run.step Le type d’objet, qui est toujours assistant.run.step

type Enum : RunStepObjectType

Value Description
message_creation L’étape message_creation course
tool_calls L’étape tool_calls course

statut Enum : RunStepObjectStatus

Value Description
in_progress Le statut de la in_progress
cancelled Le statut de la série annulée
failed Le statut de la série annulée
completed Le statut de la série annulée
expired Le statut de la série annulée

runStepDeltaObject

Représente un delta de run step, c’est-à-dire tous les champs modifiés lors d’un run step pendant le streaming.

Name Type Description Required Default
delta object Le delta contenant les champs qui ont changé lors de la phase de course. Yes
└─ step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepToolsToolCallsObject Les détails de la course à pied. No
id string L’identifiant de l’étape d’exécution, qui peut être référencé dans les points de terminaison API. Yes
object string Le type d’objet, qui est toujours thread.run.step.delta. Yes

objet Enum : RunStepDeltaObjectType

Value Description
thread.run.step.delta

listRunStepsResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

runStepDetailsMessageCreationObject

Détails de la création du message par étape de course.

Name Type Description Required Default
message_creation object Yes
└─ message_id string L’ID du message créé par cette étape d’exécution. No
type string Toujours message_creation. Yes

type Enum : RunStepDetailsMessageCreationObjectType

Value Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Détails de la création du message par étape de course.

Name Type Description Required Default
message_creation object No
└─ message_id string L’ID du message créé par cette étape d’exécution. No
type string Toujours message_creation. Yes

type Enum : RunStepDeltaStepsMessagesCreationObjectType

Value Description
message_creation

runStepDetailsToolCallsObject

Détails de l’appel à outils.

Name Type Description Required Default
tool_calls array Une série d’appels d’outils dans lesquels l’étape d’exécution était impliquée. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreter, retrieval ou function.
Yes
type string Toujours tool_calls. Yes

type Enum : RunStepDetailsToolCallsObjectType

Value Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Détails de l’appel à outils.

Name Type Description Required Default
tool_calls array Une série d’appels d’outils dans lesquels l’étape d’exécution était impliquée. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreter, file_search ou function.
No
type string Toujours tool_calls. Yes

type Enum : RunStepDeltaStepsToolCallsObjectType

Value Description
tool_calls

runStepDetailsToolCallsCodeObject

Les détails de l’outil d’interprétation de code appelaient l’étape d’exécution dans laquelle était impliqué.

Name Type Description Required Default
code_interpreter object Définition de l’appel de l’outil d’interpréteur de code. Yes
└─ input string L’entrée de l’outil Code Interpreter appelle. No
└─ outputs array Les sorties de l’outil d’interprétation de code appellent. L’interprète de code peut produire un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun de ces éléments est représenté par un type d’objet différent. No
id string L’identifiant de l’appel à outils. Yes
type string Le type d’appel à outils. C’est toujours code_interpreter pour ce type d’appel d’outils. Yes

type Enum : RunStepDetailsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Les détails de l’outil d’interprétation de code appelaient l’étape d’exécution dans laquelle était impliqué.

Name Type Description Required Default
code_interpreter object Définition de l’appel de l’outil d’interpréteur de code. No
└─ input string L’entrée de l’outil Code Interpreter appelle. No
└─ outputs array Les sorties de l’outil d’interprétation de code appellent. L’interprète de code peut produire un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun de ces éléments est représenté par un type d’objet différent. No
id string L’identifiant de l’appel à outils. No
index integer L’index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Le type d’appel à outils. C’est toujours code_interpreter pour ce type d’appel d’outils. Yes

type Enum : RunStepDeltaStepsToolCallsCodeObjectType

Value Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

La sortie texte de l’outil Code Interpreter est appelée dans le cadre d’une étape de course.

Name Type Description Required Default
logs string La sortie texte de l’outil Code Interpreter appelle. Yes
type string Toujours logs. Yes

type Enum : RunStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

La sortie texte de l’outil Code Interpreter est appelée dans le cadre d’une étape de course.

Name Type Description Required Default
index integer L’indice de la sortie dans le tableau de sorties. Yes
logs string La sortie texte de l’outil Code Interpreter appelle. No
type string Toujours logs. Yes

type Enum : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

Value Description
logs

runStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object Yes
└─ file_id string L’identifiant du fichier de l’image. No
type string Toujours image. Yes

type Enum : RunStepDetailsToolCallsCodeOutputImageObjectType

Value Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Name Type Description Required Default
image object No
└─ file_id string L’identifiant du fichier de l’image. No
index integer L’indice de la sortie dans le tableau de sorties. Yes
type string Toujours image. Yes

type Enum : RunStepDeltaStepsToolCallsCodeOutputImageObject

Value Description
image

runStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Pour l’instant, ce sera toujours un objet vide. Yes
└─ results array Les résultats de la recherche de fichiers. No
id string L’ID de l’objet d’appel de l’outil. Yes
type string Le type d’appel à outils. C’est toujours file_search pour ce type d’appel d’outils. Yes

type Enum : RunStepDetailsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFileSearchResultObject

Un résultat de la recherche de fichiers.

Name Type Description Required Default
content array Le contenu du résultat qui a été trouvé. Le contenu n’est inclus que si demandé via le paramètre de requête d’inclusion. No
file_id string L’identifiant du fichier dans lequel le résultat a été trouvé. Yes
file_name string Le nom du fichier dans lequel le résultat a été trouvé. Yes
score number Le score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante entre 0 et 1. Yes

runStepDeltaStepDetailsToolCallsFileSearchObject

Name Type Description Required Default
file_search object Pour l’instant, ce sera toujours un objet vide. Yes
id string L’ID de l’objet d’appel de l’outil. No
index integer L’index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Le type d’appel à outils. C’est toujours retrieval pour ce type d’appel d’outils. Yes

type Enum : RunStepDeltaStepsToolCallsFileSearchObjectType

Value Description
file_search

runStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object La définition de la fonction appelée. Yes
└─ arguments string Les arguments passaient à la fonction. No
└─ name string Le nom de la fonction. No
└─ output string La sortie de la fonction. Cela se fera null si les résultats n’ont pas encore été soumis. No
id string L’ID de l’objet d’appel de l’outil. Yes
type string Le type d’appel à outils. C’est toujours function pour ce type d’appel d’outils. Yes

type Enum : RunStepDetailsToolCallsFunctionObjectType

Value Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Name Type Description Required Default
function object La définition de la fonction appelée. No
└─ arguments string Les arguments passaient à la fonction. No
└─ name string Le nom de la fonction. No
└─ output string La sortie de la fonction. Cela se fera null si les résultats n’ont pas encore été soumis. No
id string L’ID de l’objet d’appel de l’outil. No
index integer L’index de l’appel d’outil dans le tableau d’appels d’outils. Yes
type string Le type d’appel à outils. C’est toujours function pour ce type d’appel d’outils. Yes

type Enum : RunStepDetailsToolCallsFunctionObjectType

Value Description
function

vectorStoreExpirationAfter

La politique d’expiration pour un magasin vectoriel.

Name Type Description Required Default
anchor string Fixez l’heure de l’ancre après laquelle la politique d’expiration s’applique. Ancrages supportés : last_active_at. Yes
days integer Le nombre de jours après la période d’ancrage pendant laquelle le stockage vectoriel expirera. Yes

Enum ancre : VectorStoreExpirationAfterAnchor

Value Description
last_active_at L’horodatage de l’ancre après lequel la politique d’expiration s’applique.

vectorStoreObject

Un stockage vectoriel est une collection de fichiers traités pouvant être utilisés par l’outil file_search .

Name Type Description Required Default
created_at integer L’horodatage Unix (en secondes) indique la création du magasin vectoriel. Yes
expires_after vectorStoreExpirationAfter La politique d’expiration pour un magasin vectoriel. No
expires_at integer L’horodatage Unix (en quelques secondes) pour indiquer quand le magasin vectoriel expirera. No
file_counts object Yes
└─ cancelled integer Le nombre de fichiers qui ont été annulés. No
└─ completed integer Le nombre de fichiers qui ont été traités avec succès. No
└─ failed integer Le nombre de fichiers qui n’ont pas été traités. No
└─ in_progress integer Le nombre de fichiers actuellement en cours de traitement. No
└─ total integer Le nombre total de fichiers. No
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
last_active_at integer L’horodatage Unix (en secondes) indique la dernière fois que le magasin vectoriel était actif. Yes
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
Yes
name string Le nom du magasin vectoriel. Yes
object enum Le type d’objet, qui est toujours vector_store.
Valeurs possibles : vector_store
Yes
status string L’état du stockage vectoriel, qui peut être expiredsoit , in_progress, soit completed. Un statut de completed indique que le stockage vectoriel est prêt à être utilisé. Yes
usage_bytes integer Le nombre total d’octets utilisés par les fichiers dans la mémoire vectorielle. Yes

status Enum : VectorStoreObjectStatus

Value Description
expired
in_progress
completed

createVectorStoreRequest

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. Applicable seulement si file_ids elle est non vide. No
expires_after vectorStoreExpirationAfter La politique d’expiration pour un magasin vectoriel. No
file_ids array Une liste des identifiants de fichiers que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
name string Le nom du magasin vectoriel. No

updateVectorStoreRequest

Name Type Description Required Default
expires_after vectorStoreExpirationAfter La politique d’expiration pour un magasin vectoriel. No
metadata object Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères.
No
name string Le nom du magasin vectoriel. No

listVectorStoresResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

objet Enum : DeleteVectorStoreResponseObject

Value Description
vector_store.deleted L’état de l’objet de réponse du mémoire vectoriel supprimer

vectorStoreFileObject

Une liste de fichiers attachés à un magasin vectoriel.

Name Type Description Required Default
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. Applicable seulement si file_ids elle est non vide. No
created_at integer L’horodatage Unix (en secondes) pour la création du fichier de stockage vectoriel. Yes
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
last_error object La dernière erreur associée à ce fichier de stockage vectoriel. Ça le null sera s’il n’y a pas d’erreurs. Yes
└─ code string Un de server_error ou invalid_file ou unsupported_file. No
└─ message string Une description lisible par l’homme de l’erreur. No
object string Le type d’objet, qui est toujours vector_store.file. Yes
status string Le statut du fichier de stockage vectoriel, qui peut être soit in_progress, completed, cancelled, ou failed. Le statut completed indique que le fichier de stockage vectoriel est prêt à être utilisé. Yes
usage_bytes integer L’utilisation totale de stockage vectoriel en octets. Notez que cela peut différer de la taille originale du fichier. Yes
vector_store_id string L’identifiant du magasin vectoriel auquel le fichier est attaché. Yes

objet Enum : VectorStoreFileObjectType

Value Description
vector_store.file

status Enum : VectorStoreFileObjectStatus

Value Description
in_progress
completed
cancelled
failed

otherChunkingStrategyResponseParam

Cette méthode est renvoyée lorsque la stratégie de chunking est inconnue. En général, cela s’explique par le fait que le fichier était indexé avant que le chunking_strategy concept ne soit introduit dans l’API.

Name Type Description Required Default
type string Toujours other. Yes

type Enum : AutreChunkingStrategyResponseParamType

Value Description
other

staticChunkingStrategyResponseParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type string Toujours static. Yes

type Enum : StaticChunkingStrategyResponseParamType

Value Description
static

staticChunkingStrategy

Name Type Description Required Default
chunk_overlap_tokens integer Le nombre de jetons qui se chevauchent entre les chunks. La valeur par défaut est 400.

Notez que le chevauchement ne doit pas dépasser la moitié de max_chunk_size_tokens.
Yes
max_chunk_size_tokens integer Le nombre maximal de jetons dans chaque bloc. La valeur par défaut est 800. La valeur minimale est 100 et la valeur maximale est 4096. Yes

autoChunkingStrategyRequestParam

La stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.

Name Type Description Required Default
type enum Toujours auto.
Valeurs possibles : auto
Yes

staticChunkingStrategyRequestParam

Name Type Description Required Default
static staticChunkingStrategy Yes
type enum Toujours static.
Valeurs possibles : static
Yes

chunkingStrategyRequestParam

La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie.

Ce composant peut être l’un des suivants :

createVectorStoreFileRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. No
file_id string Un identifiant de fichier que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. Yes

listVectorStoreFilesResponse

Name Type Description Required Default
data array Yes
first_id string Yes
has_more boolean Yes
last_id string Yes
object string Yes

deleteVectorStoreFileResponse

Name Type Description Required Default
deleted boolean Yes
id string Yes
object string Yes

objet Enum : DeleteVectorStoreFileResponseObject

Value Description
vector_store.file.deleted

vectorStoreFileBatchObject

Un lot de fichiers attachés à un stockage vectoriel.

Name Type Description Required Default
created_at integer L’horodatage Unix (en secondes) pour la création en lots des fichiers de stockage vectoriel. Yes
file_counts object Yes
└─ cancelled integer Le nombre de fichiers qui ont été annulés. No
└─ completed integer Le nombre de fichiers traités. No
└─ failed integer Le nombre de fichiers qui n’ont pas été traités. No
└─ in_progress integer Le nombre de fichiers actuellement en cours de traitement. No
└─ total integer Le nombre total de fichiers. No
id string L’identifiant, qui peut être référencé dans les points de terminaison de l’API. Yes
object string Le type d’objet, qui est toujours vector_store.file_batch. Yes
status string Le statut des fichiers de stockage vectoriel par lots, qui peut être in_progresssoit , completed, cancelled soit failed. Yes
vector_store_id string L’identifiant du magasin vectoriel auquel le fichier est attaché. Yes

objet Enum : VectorStoreFileBatchObjectType

Value Description
vector_store.files_batch

Status Enum : VectorStoreFileBatchObjectStatus

Value Description
in_progress
completed
cancelled
failed

createVectorStoreFileBatchRequest

Name Type Description Required Default
chunking_strategy chunkingStrategyRequestParam La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. No
file_ids array Une liste des identifiants de fichiers que le magasin vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. Yes

assistantStreamEvent

Représente un événement émis lors du streaming d’une Run.

Chaque événement dans un flux d’événements envoyé par le serveur possède une event propriété et data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Nous émettons des événements chaque fois qu’un nouvel objet est créé, transite vers un nouvel état ou est diffusé en parties (deltas). Par exemple, nous émettons thread.run.created quand une nouvelle exécution est créée, thread.run.completed quand une exécution est terminée, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une course, nous émettons un thread.message.created event, un thread.message.in_progress événement, de nombreux thread.message.delta événements, et enfin un thread.message.completed événement.

Nous pourrions ajouter d’autres événements au fil du temps, donc nous recommandons de gérer les événements inconnus avec grâce dans votre code.

Ce composant peut être l’un des suivants :

threadStreamEvent

Ce composant peut être l’un des suivants :

thread.created

Ça se produit lorsqu’un nouveau thread est créé.

Name Type Description Required Default
data threadObject Représente un fil qui contient des messages. Yes
event string Yes

Data: threadObject

Event Enum : ThreadStreamEventEnum

Value Description
thread.created L’événement créé par le thread

runStreamEvent

Ce composant peut être l’un des suivants :

thread.run.created

Ça se produit lorsqu’une nouvelle partie est créée.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Event Enum : RunStreamEventCreated

Value Description
thread.run.created

thread.run.queued

Se produit lorsqu’une série passe à un queued statut.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Event Enum : RunStreamEventQueued

Value Description
thread.run.queued

thread.run.in_progress

Ça se produit lorsqu’une série passe à un in_progress statut.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Événement Enum : RunStreamEventInProgress

Value Description
thread.run.in_progress

thread.run.requires_action

Se produit lorsqu’une série passe à un requires_action statut.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Event Enum : RunStreamEventRequiresAction

Value Description
thread.run.requires_action

thread.run.completed

Se produit lorsqu’une partie est terminée.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Événement Enum : RunStreamEventTerminé

Value Description
thread.run.completed

thread.run.failed

Elle se produit lorsqu’une course échoue.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Événement Enum : RunStreamEventFailed

Value Description
thread.run.failed

thread.run.cancelling

Se produit lorsqu’une série passe à un cancelling statut.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Événement Enum : RunStreamEventCancelling

Value Description
thread.run.cancelling

thread.run.cancelled

Se produit lorsqu’une partie est annulée.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Événement Enum : RunStreamEventAnnulled

Value Description
thread.run.cancelled

thread.run.expired

Elle se produit lorsqu’une course expire.

Name Type Description Required Default
data runObject Représente une exécution sur un thread. Yes
event string Yes

Data: runObject

Événement Enum : RunStreamEventExpired

Value Description
thread.run.expired

runStepStreamEvent

Ce composant peut être l’un des suivants :

thread.run.step.created

Elle se produit lors de la création d’un pas de course.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une partie.
Yes
event string Yes

Data: runStepObject

Événement Enum : RunStepStreamEventCreated

Value Description
thread.run.step.created

thread.run.step.in_progress

Se produit lorsqu’un pas de course passe à un in_progress état.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une partie.
Yes
event string Yes

Data: runStepObject

Événement Enum : RunStepStreamEventInProgress

Value Description
thread.run.step.in_progress

thread.run.step.delta

Elle se produit lorsque des parties d’un pas de course sont en streaming.

Name Type Description Required Default
data runStepDeltaObject Représente un delta de run step, c’est-à-dire tous les champs modifiés lors d’un run step pendant le streaming.
Yes
event string Yes

Data: runStepDeltaObject

Événement Enum : RunStepStreamEventDelta

Value Description
thread.run.step.delta

thread.run.step.completed

Ça se produit lorsqu’une étape de course est complétée.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une partie.
Yes
event string Yes

Data: runStepObject

Événement Enum : RunStepStreamEventTerminé

Value Description
thread.run.step.completed

thread.run.step.failed

Ça se produit lorsqu’un pas de course échoue.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une partie.
Yes
event string Yes

Data: runStepObject

Événement Enum : RunStepStreamEventFailed

Value Description
thread.run.step.failed

thread.run.step.cancelled

Se produit lorsqu’un pas de course est annulé.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une partie.
Yes
event string Yes

Data: runStepObject

Événement Enum : RunStepStreamEventAnnulled

Value Description
thread.run.step.cancelled

thread.run.step.expired

Elle se produit lorsqu’un pas de course expire.

Name Type Description Required Default
data runStepObject Représente une étape dans l’exécution d’une partie.
Yes
event string Yes

Data: runStepObject

Événement Enum : RunStepStreamEventExpired

Value Description
thread.run.step.expired

messageStreamEvent

Ce composant peut être l’un des suivants :

thread.message.created

Apparaît lors de la création d’un message.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Événement Enum : MessageStreamEventCreated

Value Description
thread.message.created

thread.message.in_progress

Se produit lorsqu’un message passe à un in_progress état.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Événement Enum : MessageStreamEventInProgress

Value Description
thread.message.in_progress

thread.message.delta

Cela se produit lorsque des parties d’un message sont diffusées.

Name Type Description Required Default
data messageDeltaObject Représente un delta de message, c’est-à-dire tout champ modifié sur un message pendant le streaming.
Yes
event string Yes

Data: messageDeltaObject

Event Enum : MessageStreamEventDelta

Value Description
thread.message.delta

thread.message.completed

Apparaît lorsqu’un message est complété.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Événement Enum : MessageStreamÉvénementTerminé

Value Description
thread.message.completed

thread.message.incomplete

Apparaît lorsqu’un message se termine avant d’être terminé.

Name Type Description Required Default
data messageObject Représente un message au sein d’un thread. Yes
event string Yes

Data: messageObject

Événement Enum : MessageStreamEventIncomplete

Value Description
thread.message.incomplete

Annotation

Ce composant peut être l’un des suivants :

Click

Un clic.

Name Type Description Required Default
button enum Indique quel bouton de souris a été pressé pendant le clic. L’un des left, right, wheel, back, ou forward.

Valeurs possibles : left, right, wheel, back, forward
Yes
type enum Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours fixée à click.

Valeurs possibles : click
Yes
x integer La coordonnée x où le clic a eu lieu.
Yes
y integer La coordonnée y où le clic a eu lieu.
Yes

CodeInterpreterFileOutput

La sortie d’un outil d’interprétation de code est un fichier.

Name Type Description Required Default
files array Yes
type enum Le type de sortie du fichier de l’interpréteur de code. Toujours files.

Valeurs possibles : files
Yes

CodeInterpreterTextOutput

La sortie d’un outil d’interprétation de code qui est du texte.

Name Type Description Required Default
logs string Les journaux de l’outil d’interprétation de code s’appellent.
Yes
type enum Le type de l’interprétation de code de la sortie texte. Toujours logs.

Valeurs possibles : logs
Yes

CodeInterpreterTool

Un outil qui fait tourner du code.

Name Type Description Required Default
file_ids array Les identifiants des fichiers sur lesquels exécuter le code.
Yes
type enum Le type de l’outil d’interprétation de code. Toujours code_interpreter.

Valeurs possibles : code_interpreter
Yes

CodeInterpreterToolCall

Un appel à l’outil pour exécuter du code.

Name Type Description Required Default
code string Le code à exécuter.
Yes
id string L’ID unique de l’outil d’interprétation de code l’appelle.
Yes
results array Les résultats de l’appel de l’outil d’interprétation de code.
Yes
status enum L’état de l’outil d’interprétation de code est appelé.

Valeurs possibles : in_progress, interpreting, completed
Yes
type enum Le type d’outil d’interprétation de code appelé Toujours code_interpreter_call.

Valeurs possibles : code_interpreter_call
Yes

CodeInterpreterToolOutput

Ce composant peut être l’un des suivants :

ComparisonFilter

Un filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.

Name Type Description Required Default
key string La clé est de comparer avec la valeur. Yes
type enum Spécifie l’opérateur de comparaison : eq, ne, gt, gte, lt, lte.
- eq: égal
- ne: non égal
- gt: plus grand que
- gte: supérieur ou égal
- lt: moins que
- lte: inférieur ou égal

Valeurs possibles : eq, ne, gt, gte, lt, lte
Yes
value chaîne ou nombre ou booléen La valeur à comparer avec la clé d’attributs ; prend en compte les types de chaînes, de nombre ou booléens. Yes

CompoundFilter

Combinez plusieurs filtres en utilisant and ou or.

Name Type Description Required Default
filters array Un ensemble de filtres à combiner. Les objets peuvent être ComparisonFilter ou CompoundFilter. Yes
type enum Type d’opération : and ou or.
Valeurs possibles : and, or
Yes

ComputerAction

Ce composant peut être l’un des suivants :

ComputerScreenshotImage

Une capture d’écran informatique utilisée avec l’outil d’utilisation informatique.

Name Type Description Required Default
file_id string L’identifiant d’un fichier téléchargé contenant la capture d’écran. No
image_url string L’URL de l’image capture. No
type enum Spécifie le type d’événement. Pour une capture d’écran informatique, cette propriété est toujours définie à computer_screenshot.

Valeurs possibles : computer_screenshot
Yes

ComputerTool

Un outil qui contrôle un ordinateur virtuel.

Name Type Description Required Default
display_height number La hauteur de l’écran de l’ordinateur.
Yes
display_width number La largeur de l’écran de l’ordinateur.
Yes
environment enum Le type d’environnement informatique à contrôler.

Valeurs possibles : mac, windows, ubuntu, browser
Yes
type enum Le type d’outil d’utilisation informatique. Toujours computer_use_preview.

Valeurs possibles : computer-use-preview
Yes

ComputerToolCall

Un appel à un outil d’utilisation informatique.

Name Type Description Required Default
action ComputerAction Yes
call_id string Un identifiant utilisé lors de la réponse à l’appel de l’outil avec une sortie.
Yes
id string L’identifiant unique de l’appel informatique. Yes
pending_safety_checks array Les contrôles de sécurité en attente pour l’appel informatique.
Yes
status enum Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
Yes
type enum Le type d’appel informatique. Toujours computer_call.
Valeurs possibles : computer_call
Yes

ComputerToolCallOutput

La sortie d’un appel d’outil informatique.

Name Type Description Required Default
acknowledged_safety_checks array Les contrôles de sécurité rapportés par l’API qui ont été confirmés par le développeur.
No
call_id string L’ID de l’appel de l’outil informatique qui a produit la sortie.
Yes
id string L’ID de l’outil informatique appelle la sortie.
No
output ComputerScreenshotImage Une capture d’écran informatique utilisée avec l’outil d’utilisation informatique.
Yes
status enum L’état du message d’entrée. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.

Valeurs possibles : computer_call_output
Yes

ComputerToolCallOutputResource

Name Type Description Required Default
acknowledged_safety_checks array Les contrôles de sécurité rapportés par l’API qui ont été confirmés par le développeur.
No
call_id string L’ID de l’appel de l’outil informatique qui a produit la sortie.
Yes
id string L’identifiant unique de la sortie de l’outil d’appel informatique.
Yes
output ComputerScreenshotImage Une capture d’écran informatique utilisée avec l’outil d’utilisation informatique.
Yes
status enum L’état du message d’entrée. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.

Valeurs possibles : computer_call_output
Yes

ComputerToolCallSafetyCheck

Un contrôle de sécurité en attente pour l’appel informatique.

Name Type Description Required Default
code string Le type de contrôle de sécurité en attente. Yes
id string L’identification du contrôle de sécurité en cours. Yes
message string Détails sur le contrôle de sécurité en cours. Yes

Content

Contenus d’entrée et de sortie multimodaux.

Ce composant peut être l’un des suivants :

Coordinate

Une paire de coordonnées x/y, par { x: 100, y: 200 }exemple .

Name Type Description Required Default
x integer The x-coordinate.
Yes
y integer The y-coordinate.
Yes

CreateModelResponseProperties

Name Type Description Required Default
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères.
No
model string Modèle utilisé pour générer les réponses. No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

createResponse

Name Type Description Required Default
include array {"$ref": "#/components/schemas/includable/description"} No
input chaîne ou tableau Texte, image ou fichier dans le modèle, utilisé pour générer une réponse. Yes
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses.
No
max_output_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement.
No
parallel_tool_calls boolean Permettre au modèle d’exécuter des appels d’outils en parallèle.
No True
previous_response_id string L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement. No
store boolean Savoir s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via API.
No True
stream boolean Si elle est réglée sur true, les données de réponse du modèle seront diffusées au client au fur et à mesure de leur génération via des événements envoyés par le serveur. No False
text object Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Un objet spécifiant le format que le modèle doit produire.

La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut est { "type": "text" } sans options supplémentaires.

Non recommandé pour le gpt-4o et les modèles plus récents :

En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent.
No
tool_choice OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler.
No
tools array Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir au modèle sont :

- Outils intégrés
No
truncation enum La stratégie de troncature à utiliser pour la réponse du modèle.
- auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre de contexte du modèle, le modèle tronquera le
Réponse pour s’adapter à la fenêtre contextuelle en déposant des éléments d’entrée au milieu de la conversation.
- disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.

Valeurs possibles : auto, disabled
No

DoubleClick

Un double clic.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de double clic, cette propriété est toujours fixée à double_click.

Valeurs possibles : double_click
Yes
x integer La coordonnée x où le double-clic a eu lieu.
Yes
y integer La coordonnée y où le double-clic a eu lieu.
Yes

Drag

Un mouvement de traînée.

Name Type Description Required Default
path array Un tableau de coordonnées représentant le chemin de l’action de traînée. Les coordonnées apparaîtront sous forme d’un tableau d’objets, par exemple[{ x: 100, y: 200 }, { x: 200, y: 300 }] Yes
type enum Spécifie le type d’événement. Pour une action de traînée, cette propriété est toujours fixée à drag.

Valeurs possibles : drag
Yes

EasyInputMessage

Un message d’entrée dans le modèle avec un rôle indiquant l’instruction suivant la hiérarchie. Les instructions données avec le developer rôle ou system ont la priorité sur les instructions données avec le user rôle. Les messages avec ce assistant rôle sont supposés avoir été générés par le modèle lors d’interactions précédentes.

Name Type Description Required Default
content chaîne ou InputMessageContentList Texte d’entrée texte ou audio au modèle, utilisé pour générer une réponse.
Peut aussi contenir les réponses des anciens assistants.
Yes
role enum Le rôle de l’entrée du message. L’un des user, assistant, system, ou developer.

Valeurs possibles : user, assistant, system, developer
Yes
type enum Le type de message d’entrée. Toujours message.

Valeurs possibles : message
No

FileCitation

Une citation pour un dossier.

Name Type Description Required Default
file_id string L’ID du dossier.
Yes
index integer L’index du fichier dans la liste des fichiers.
Yes
type enum Le type de citation du dossier. Toujours file_citation.

Valeurs possibles : file_citation
Yes

FilePath

Un chemin vers un fichier.

Name Type Description Required Default
file_id string L’ID du dossier.
Yes
index integer L’index du fichier dans la liste des fichiers.
Yes
type enum Le type de chemin du fichier. Toujours file_path.

Valeurs possibles : file_path
Yes

FileSearchRanker

Le classeur à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, il utilisera le auto classeur.

Property Value
Description Le classeur à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, il utilisera le auto classeur.
Type string
Values auto
default_2024_08_21

FileSearchTool

Un outil qui recherche du contenu pertinent à partir de fichiers téléchargés.

Name Type Description Required Default
filters Filtre de comparaison ou filtre composé Un filtre à appliquer basé sur les attributs du fichier. No
max_num_results integer Le nombre maximal de résultats à revendre. Ce nombre devrait être compris entre 1 et 50.
No
ranking_options object Options de classement pour la recherche. No
└─ ranker enum Le classeur à utiliser pour la recherche de fichiers.
Valeurs possibles : auto, default-2024-11-15
No
└─ score_threshold number Le seuil de score pour la recherche de fichiers, un nombre compris entre 0 et 1.
Les chiffres proches de 1 tenteront de ne fournir que les résultats les plus pertinents, mais peuvent en donner moins.
No 0
type enum Le type de l’outil de recherche de fichiers. Toujours file_search.

Valeurs possibles : file_search
Yes
vector_store_ids array Les identifiants du vecteur stockent pour la recherche.
Yes

FileSearchToolCall

Les résultats d’un appel à l’outil de recherche de fichiers.

Name Type Description Required Default
id string L’identifiant unique de l’outil de recherche de fichiers appelé.
Yes
queries array Les requêtes servaient à rechercher des fichiers.
Yes
results array Les résultats de l’outil de recherche de fichiers sont appelés.
No
status enum Le statut de l’outil de recherche de fichiers est appelé. L’un de in_progress, searching, incomplete ou failed,

Valeurs possibles : in_progress, searching, completed, incomplete, failed
Yes
type enum Le type d’appel de l’outil de recherche de fichiers. Toujours file_search_call.

Valeurs possibles : file_search_call
Yes

FunctionTool

Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.

Name Type Description Required Default
description string Une description de la fonction. Utilisé par le modèle pour déterminer s’il faut appeler ou non la fonction.
No
name string Le nom de la fonction à appeler.
Yes
parameters object Un objet schéma JSON décrivant les paramètres de la fonction.
Yes
strict boolean S’il faut imposer une validation stricte des paramètres. Par défaut true.
Yes
type enum Le type de l’outil de fonction. Toujours function.

Valeurs possibles : function
Yes

FunctionToolCall

Un appel à l’outil pour exécuter une fonction.

Name Type Description Required Default
arguments string Une chaîne JSON des arguments à transmettre à la fonction.
Yes
call_id string L’identifiant unique de l’appel de l’outil de fonction généré par le modèle.
Yes
id string L’ID unique de l’outil de fonction appelé.
Yes
name string Le nom de la fonction à exécuter.
Yes
status enum Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type d’appel de l’outil de fonction. Toujours function_call.

Valeurs possibles : function_call
Yes

FunctionToolCallOutput

La sortie d’un appel d’outil de fonction.

Name Type Description Required Default
call_id string L’identifiant unique de l’appel de l’outil de fonction généré par le modèle.
Yes
id string L’identifiant unique de l’outil de fonction sortie. Rempli lorsque cet élément est retourné via API.
No
output string Une chaîne JSON de la sortie de l’appel de l’outil de fonction.
Yes
status enum Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type de sortie de l’outil de fonction appel. Toujours function_call_output.

Valeurs possibles : function_call_output
Yes

FunctionToolCallOutputResource

Name Type Description Required Default
call_id string L’identifiant unique de l’appel de l’outil de fonction généré par le modèle.
Yes
id string L’ID unique de la sortie de l’outil d’appel de fonction.
Yes
output string Une chaîne JSON de la sortie de l’appel de l’outil de fonction.
Yes
status enum Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type de sortie de l’outil de fonction appel. Toujours function_call_output.

Valeurs possibles : function_call_output
Yes

includable

Spécifier des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont :

  • file_search_call.results: Incluez les résultats de recherche de l’outil de recherche de fichiers appelé.
  • message.input_image.image_url: Inclure les URL d’image du message d’entrée.
  • computer_call_output.output.image_url: Inclure les URL d’image issues de la sortie de l’appel informatique.
Property Value
Description Spécifier des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont :
- file_search_call.results: Incluez les résultats de recherche de l’outil de recherche de fichiers appelé.
- message.input_image.image_url: Inclure les URL d’image du message d’entrée.
- computer_call_output.output.image_url: Inclure les URL d’image issues de la sortie de l’appel informatique.
Type string
Values file_search_call.results
message.input_image.image_url
computer_call_output.output.image_url

InputAudio

Une entrée audio vers le modèle.

Name Type Description Required Default
data string Données audio codées en base64.
Yes
format enum Le format des données audio. Les formats actuellement pris en charge sont mp3 et wav.

Valeurs possibles : mp3, wav
Yes
type enum Le type de l’élément d’entrée. Toujours input_audio.

Valeurs possibles : input_audio
Yes

InputContent

Ce composant peut être l’un des suivants :

InputFile

Une entrée de fichier dans le modèle.

Name Type Description Required Default
file_data string Le contenu du fichier à envoyer au modèle.
No
file_id string L’identifiant du fichier à envoyer au modèle.
No
filename string Le nom du fichier à envoyer au modèle.
No
type enum Le type de l’élément d’entrée. Toujours input_file.

Valeurs possibles : input_file
Yes

InputImage

Une entrée image au modèle.

Name Type Description Required Default
detail enum Le niveau de détail de l’image à envoyer au modèle. L’un des high, low, ou auto. Par défaut, .auto

Valeurs possibles : high, low, auto
Yes
file_id string L’identifiant du fichier à envoyer au modèle.
No
image_url string L’URL de l’image à envoyer au modèle. Une URL entièrement qualifiée ou une image encodée base64 dans une URL de données.
No
type enum Le type de l’élément d’entrée. Toujours input_image.

Valeurs possibles : input_image
Yes

InputItem

Ce composant peut être l’un des suivants :

InputMessage

Un message d’entrée dans le modèle avec un rôle indiquant l’instruction suivant la hiérarchie. Les instructions données avec le developer rôle ou system ont la priorité sur les instructions données avec le user rôle.

Name Type Description Required Default
content InputMessageContentList Une liste d’un ou plusieurs éléments d’entrée du modèle, contenant différents contenus
types.
Yes
role enum Le rôle de l’entrée du message. L’un des user, system, ou developer.

Valeurs possibles : user, system, developer
Yes
status enum Le statut de l’article. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type de message d’entrée. Toujours réglé sur message.

Valeurs possibles : message
No

InputMessageContentList

Une liste d’un ou plusieurs éléments d’entrée du modèle, contenant différents types de contenu.

Aucune propriété définie pour ce composant.

InputMessageResource

Name Type Description Required Default
content InputMessageContentList Une liste d’un ou plusieurs éléments d’entrée du modèle, contenant différents contenus
types.
Yes
id string L’identifiant unique de l’entrée du message.
Yes
role enum Le rôle de l’entrée du message. L’un des user, system, ou developer.

Valeurs possibles : user, system, developer
Yes
status enum Le statut de l’article. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type de message d’entrée. Toujours réglé sur message.

Valeurs possibles : message
No

InputText

Une entrée texte pour le modèle.

Name Type Description Required Default
text string Le texte d’entrée du modèle.
Yes
type enum Le type de l’élément d’entrée. Toujours input_text.

Valeurs possibles : input_text
Yes

Item

Élément de contenu utilisé pour générer une réponse.

Ce composant peut être l’un des suivants :

ItemReference

Un identifiant interne pour un objet à référencer.

Name Type Description Required Default
id string L’identifiant de l’objet à référencer.
Yes
type enum Le type d’objet à référencer. Toujours item_reference.

Valeurs possibles : item_reference
Yes

ItemResource

Élément de contenu utilisé pour générer une réponse.

Ce composant peut être l’un des suivants :

KeyPress

Une collection de pressions de touche que le modèle souhaite effectuer.

Name Type Description Required Default
keys array La combinaison de touches que le modèle demande à presser. Il s’agit d’un tableau de chaînes, chacune représentant une tonalité.
Yes
type enum Spécifie le type d’événement. Pour une action de pression sur une touche, cette propriété est toujours définie à keypress.

Valeurs possibles : keypress
Yes

Metadata

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères.

Aucune propriété définie pour ce composant.

ModelResponseProperties

Name Type Description Required Default
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères.
No
model string Modèle utilisé pour générer les réponses. No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
Nous recommandons généralement de modifier cela, ou top_p pas les deux.
No 1
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
No 1
user string Un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

Move

Une action de mouvement de souris.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours fixée à move.

Valeurs possibles : move
Yes
x integer La coordonnée x à laquelle se déplacer.
Yes
y integer La coordonnée y à laquelle se déplacer.
Yes

OutputAudio

Une sortie audio du modèle.

Name Type Description Required Default
data string Données audio encodées en Base64 provenant du modèle.
Yes
transcript string La transcription des données audio du modèle.
Yes
type enum Le type de sortie audio. Toujours output_audio.

Valeurs possibles : output_audio
Yes

OutputContent

Ce composant peut être l’un des suivants :

OutputItem

Name Type Description Required Default
action ComputerAction Yes
arguments string Une chaîne JSON des arguments à transmettre à la fonction.
Yes
call_id string Un identifiant utilisé lors de la réponse à l’appel de l’outil avec une sortie.
Yes
content array Contenu du texte de raisonnement.
Yes
id string L’identifiant unique du contenu de raisonnement.
Yes
name string Le nom de la fonction à exécuter.
Yes
pending_safety_checks array Les contrôles de sécurité en attente pour l’appel informatique.
Yes
queries array Les requêtes servaient à rechercher des fichiers.
Yes
results array Les résultats de l’outil de recherche de fichiers sont appelés.
No
role enum Le rôle du message de sortie. Toujours assistant.

Valeurs possibles : assistant
Yes
status enum Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
Yes
type enum Le type d’objet. Toujours reasoning.

Valeurs possibles : reasoning
Yes

OutputMessage

Un message de sortie du modèle.

Name Type Description Required Default
content array Le contenu du message de sortie.
Yes
id string L’identifiant unique du message de sortie.
Yes
role enum Le rôle du message de sortie. Toujours assistant.

Valeurs possibles : assistant
Yes
status enum L’état du message d’entrée. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via API.

Valeurs possibles : in_progress, completed, incomplete
Yes
type enum Le type du message de sortie. Toujours message.

Valeurs possibles : message
Yes

OutputText

Une sortie texte du modèle.

Name Type Description Required Default
annotations array Les annotations de la sortie du texte.
Yes
text string Le texte sorti du modèle.
Yes
type enum Le type du texte de sortie. Toujours output_text.

Valeurs possibles : output_text
Yes

RealtimeSessionCreateRequest

Configuration en temps réel des objets de session.

Name Type Description Required Default
input_audio_format enum Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.

Valeurs possibles : pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.
La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle.
Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée.
No
└─ type enum Un type de réduction du bruit. near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être configurée pour null s’éteindre une fois activée. La transcription audio en entrée n’est pas native au modèle, car celui-ci consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme une orientation du contenu audio d’entrée plutôt que comme ce que le modèle a entendu précisément. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription.
No
└─ language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model string Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.
No
└─ prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots-clés.
Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ».
No
instructions string Les instructions système par défaut (c’est-à-dire le message système) précédaient les appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être instruit sur le contenu et le format des réponses (par exemple « soyez extrêmement concis », « soyez amical », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple « parlez vite », « injectez de l’émotion dans votre voix », « riez fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des indications au modèle sur le comportement souhaité.

Notez que le serveur définit des instructions par défaut qui seront utilisées si ce champ n’est pas défini et qui sont visibles lors de l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’un seul assistant, incluant les appels d’outils. Fournir un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour le nombre maximal de jetons disponibles pour un modèle donné. Par défaut, .inf
No
modalities L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »].
No
model string Le nom du déploiement utilisé pour cette session.
No
output_audio_format enum Le format de l’audio de sortie. Les options sont pcm16, g711_ulaw, ou g711_alaw.
Pour pcm16, l’audio de sortie est échantillonné à un débit de 24 kHz.

Valeurs possibles : pcm16, g711_ulaw, g711_alaw
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour de meilleures performances.
No 0.8
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, required, ou spécifier une fonction.
No auto
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement. auto est le par défaut et est équivalent à medium.

Valeurs possibles : low, medium, high, auto
No
└─ interrupt_response boolean S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No
voice VoiceIdsShared No

RealtimeSessionCreateResponse

Une nouvelle configuration de session en temps réel, avec une clé éphémère. Le TTL par défaut pour les touches est d’une minute.

Name Type Description Required Default
client_secret object Clé éphémère retournée par l’API. Yes
└─ expires_at integer Heure d’expiration du jeton. Actuellement, tous les jetons expirent après une minute.
No
└─ value string Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps Réel. Utilisez-le dans des environnements côté client plutôt qu’un jeton API standard, qui ne devrait être utilisé que côté serveur.
No
input_audio_format string Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.
No
input_audio_transcription object Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être configurée pour null s’éteindre une fois activée. La transcription audio en entrée n’est pas native au modèle, car celui-ci consomme directement l’audio. La transcription s’exécute de façon asynchrone via Whisper et doit être considérée comme une guidance approximative plutôt que comme la représentation comprise par le modèle.
No
└─ model string Le modèle à utiliser pour la whisper-1 transcription est le seul modèle actuellement pris en charge.
No
instructions string Les instructions système par défaut (c’est-à-dire le message système) précédaient les appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être instruit sur le contenu et le format des réponses (par exemple « soyez extrêmement concis », « agissez amical », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple « parlez vite », « injectez de l’émotion dans votre voix », « riez fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des indications au modèle sur le comportement souhaité.
Notez que le serveur définit des instructions par défaut qui seront utilisées si ce champ n’est pas défini et qui sont visibles lors de l’événement session.created au début de la session.
No
max_response_output_tokens entier ou chaîne Nombre maximal de jetons de sortie pour une réponse d’un seul assistant, incluant les appels d’outils. Fournir un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour le nombre maximal de jetons disponibles pour un modèle donné. Par défaut, .inf
No
modalities L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »].
No
output_audio_format string Le format de l’audio de sortie. Les options sont pcm16, g711_ulaw, ou g711_alaw.
No
temperature number Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Par défaut à 0,8.
No
tool_choice string Comment le modèle choisit les outils. Les options sont auto, none, required, ou spécifier une fonction.
No
tools array Outils (fonctions) disponibles pour le modèle. No
turn_detection object Configuration pour la détection de virage. On peut configurer pour null désactiver. Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur.
No
└─ prefix_padding_ms integer Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms.
No
└─ silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur.
No
└─ threshold number Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants.
No
└─ type string Seul server_vad le type de détection de virage est actuellement pris en charge.
No
voice VoiceIdsShared No

RealtimeTranscriptionSessionCreateRequest

Configuration d’objets de session de transcription en temps réel.

Name Type Description Required Default
include array L’ensemble des éléments à inclure dans la transcription. Les articles actuellement disponibles sont :
- item.input_audio_transcription.logprobs
No
input_audio_format enum Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.
Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.

Valeurs possibles : pcm16, g711_ulaw, g711_alaw
No
input_audio_noise_reduction object Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.
La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle.
Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée.
No
└─ type enum Un type de réduction du bruit. near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.

Valeurs possibles : near_field, far_field
No
input_audio_transcription object Configuration pour la transcription audio en entrée. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription.
No
└─ language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model enum Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.

Valeurs possibles : gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent.
Pour whisper-1, l’invite est une liste de mots-clés.
Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ».
No
modalities L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »].
No
turn_detection object Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.
Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur.
Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée.
No
└─ create_response boolean S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit. Non disponible pour les séances de transcription.
No True
└─ eagerness enum Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre. low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement. auto est le par défaut et est équivalent à medium.

Valeurs possibles : low, medium, high, auto
No
└─ interrupt_response boolean S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les séances de transcription.
No True
└─ prefix_padding_ms integer Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms.
No
└─ silence_duration_ms integer Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur.
No
└─ threshold number Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants.
No
└─ type enum Type de détection de virage.

Valeurs possibles : server_vad, semantic_vad
No

RealtimeTranscriptionSessionCreateResponse

Une nouvelle configuration de session de transcription en temps réel.

Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. Le TTL par défaut pour les touches est d’une minute. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.

Name Type Description Required Default
client_secret object Clé éphémère retournée par l’API. Présent uniquement lorsque la session est créée sur le serveur via l’API REST.
Yes
└─ expires_at integer Heure d’expiration du jeton. Actuellement, tous les jetons expirent après une minute.
No
└─ value string Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps Réel. Utilisez-le dans des environnements côté client plutôt qu’un jeton API standard, qui ne devrait être utilisé que côté serveur.
No
input_audio_format string Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.
No
input_audio_transcription object Configuration du modèle de transcription.
No
└─ language string La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence.
No
└─ model enum Le modèle à utiliser pour la transcription. Peut être gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.

Valeurs possibles : gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1
No
└─ prompt string Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. La consigne doit correspondre au langage audio.
No
modalities L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »].
No
turn_detection object Configuration pour la détection de virage. On peut configurer pour null désactiver. Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur.
No
└─ prefix_padding_ms integer Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms.
No
└─ silence_duration_ms integer Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur.
No
└─ threshold number Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants.
No
└─ type string Seul server_vad le type de détection de virage est actuellement pris en charge.
No

Reasoning

Options de configuration pour les modèles de raisonnement.

Name Type Description Required Default
effort ReasoningEffort Limite l’effort de raisonnement pour les modèles de raisonnement.
Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.
Yes medium
summary enum Un résumé du raisonnement réalisé par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle.
L’un des concise ou detailed.

Valeurs possibles : concise, detailed
No

ReasoningItem

Une description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse.

Name Type Description Required Default
content array Contenu du texte de raisonnement.
Yes
id string L’identifiant unique du contenu de raisonnement.
Yes
status enum Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.

Valeurs possibles : in_progress, completed, incomplete
No
type enum Le type d’objet. Toujours reasoning.

Valeurs possibles : reasoning
Yes

Refusal

Un refus de la part du mannequin.

Name Type Description Required Default
refusal string L’explication du refus du modèle.
Yes
type enum Le type de refus. Toujours refusal.

Valeurs possibles : refusal
Yes

response

Name Type Description Required Default
created_at number Horodatage Unix (en quelques secondes) de la création de cette Réponse.
Yes
error ResponseError Un objet d’erreur retourné lorsque le modèle ne génère pas de Réponse.
Yes
id string Identifiant unique pour cette réponse.
Yes
incomplete_details object Détails sur les raisons pour lesquelles la réponse est incomplète.
Yes
└─ reason enum La raison pour laquelle la réponse est incomplète.
Valeurs possibles : max_output_tokens, content_filter
No
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses.
Yes
max_output_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de la conversation.
No
metadata Metadata Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord.

Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères.
Yes
model string Modèle utilisé pour générer les réponses. Yes
object enum Le type d’objet de cette ressource - toujours défini à response.

Valeurs possibles : response
Yes
output array Un ensemble d’éléments de contenu générés par le modèle.

- La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.
- Plutôt que d’accéder au premier élément du output tableau et de supposer qu’il s’agit d’un assistant message contenant le contenu généré par le modèle, vous pourriez envisager d’utiliser la output_text propriété prise en charge dans les SDK.
Yes
output_text string Propriété de commodité uniquement SDK qui contient le texte agrégé sorti de tous output_text les éléments du output tableau, s’il y en a un.
Pris en charge dans les SDK Python et JavaScript.
No
parallel_tool_calls boolean Permettre au modèle d’exécuter des appels d’outils en parallèle.
Yes True
previous_response_id string L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement.
No
status enum L’état de la génération de la réponse. L’un des completed, failed, in_progress, ou incomplete.

Valeurs possibles : completed, failed, in_progress, incomplete
No
temperature number Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe.
Nous recommandons généralement de modifier cela, ou top_p pas les deux.
Yes 1
text object Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Un objet spécifiant le format que le modèle doit produire.

La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut est { "type": "text" } sans options supplémentaires.

Non recommandé pour le gpt-4o et les modèles plus récents :

En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent.
No
tool_choice OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler.
Yes
tools array Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir au modèle sont :

- Outils intégrés
Yes
top_p number Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte.

Nous recommandons généralement de modifier cela, ou temperature pas les deux.
Yes 1
truncation enum La stratégie de troncature à utiliser pour la réponse du modèle.
- auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre contextuelle du modèle, le modèle tronquera la réponse pour s’adapter à la fenêtre de contexte en supprimant des éléments d’entrée au milieu de la conversation.
- disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.

Valeurs possibles : auto, disabled
No
usage ResponseUsage Représente les détails d’utilisation des jetons, y compris les jetons d’entrée, de sortie, une répartition des jetons de sortie et le total des jetons utilisés.
No
user string Un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. .
No

ResponseAudioDeltaEvent

Émis lorsqu’il y a une réponse audio partielle.

Name Type Description Required Default
delta string Un morceau d’octets audio de réponse codée en Base64.
Yes
type enum Le type d’événement. Toujours response.audio.delta.

Valeurs possibles : response.audio.delta
Yes

ResponseAudioDoneEvent

Émis lorsque la réponse audio est terminée.

Name Type Description Required Default
type enum Le type d’événement. Toujours response.audio.done.

Valeurs possibles : response.audio.done
Yes

ResponseAudioTranscriptDeltaEvent

Émis lorsqu’il y a une transcription partielle de l’audio.

Name Type Description Required Default
delta string La transcription partielle de la réponse audio.
Yes
type enum Le type d’événement. Toujours response.audio.transcript.delta.

Valeurs possibles : response.audio.transcript.delta
Yes

ResponseAudioTranscriptDoneEvent

Émis lorsque la transcription audio complète est terminée.

Name Type Description Required Default
type enum Le type d’événement. Toujours response.audio.transcript.done.

Valeurs possibles : response.audio.transcript.done
Yes

ResponseCodeInterpreterCallCodeDeltaEvent

Émis lorsqu’un extrait de code partiel est ajouté par l’interpréteur de code.

Name Type Description Required Default
delta string Le fragment partiel de code ajouté par l’interpréteur de code.
Yes
output_index integer L’index de l’élément de sortie appelé par l’interpréteur de code est en cours.
Yes
type enum Le type d’événement. Toujours response.code_interpreter_call.code.delta.

Valeurs possibles : response.code_interpreter_call.code.delta
Yes

ResponseCodeInterpreterCallCodeDoneEvent

Émis lorsque la sortie du extrait de code est finalisée par l’interpréteur de code.

Name Type Description Required Default
code string Le dernier extrait de code produit par l’interpréteur de code.
Yes
output_index integer L’index de l’élément de sortie appelé par l’interpréteur de code est en cours.
Yes
type enum Le type d’événement. Toujours response.code_interpreter_call.code.done.

Valeurs possibles : response.code_interpreter_call.code.done
Yes

ResponseCodeInterpreterCallCompletedEvent

Émis lorsque l’appel de l’interpréteur de code est terminé.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel à l’outil pour exécuter du code.
Yes
output_index integer L’index de l’élément de sortie appelé par l’interpréteur de code est en cours.
Yes
type enum Le type d’événement. Toujours response.code_interpreter_call.completed.

Valeurs possibles : response.code_interpreter_call.completed
Yes

ResponseCodeInterpreterCallInProgressEvent

Émis lorsqu’un appel d’interpréteur de code est en cours.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel à l’outil pour exécuter du code.
Yes
output_index integer L’index de l’élément de sortie appelé par l’interpréteur de code est en cours.
Yes
type enum Le type d’événement. Toujours response.code_interpreter_call.in_progress.

Valeurs possibles : response.code_interpreter_call.in_progress
Yes

ResponseCodeInterpreterCallInterpretingEvent

Émis lorsque l’interpréteur de code interprète activement le fragment de code.

Name Type Description Required Default
code_interpreter_call CodeInterpreterToolCall Un appel à l’outil pour exécuter du code.
Yes
output_index integer L’index de l’élément de sortie appelé par l’interpréteur de code est en cours.
Yes
type enum Le type d’événement. Toujours response.code_interpreter_call.interpreting.

Valeurs possibles : response.code_interpreter_call.interpreting
Yes

ResponseCompletedEvent

Émis lorsque la réponse du modèle est terminée.

Name Type Description Required Default
response response Yes
type enum Le type d’événement. Toujours response.completed.

Valeurs possibles : response.completed
Yes

ResponseContentPartAddedEvent

Émis lorsqu’une nouvelle partie de contenu est ajoutée.

Name Type Description Required Default
content_index integer L’index de la partie contenu ajoutée.
Yes
item_id string L’identifiant de l’élément de sortie auquel la partie contenu a été ajoutée.
Yes
output_index integer L’indice de l’élément de sortie auquel la partie contenu a été ajoutée.
Yes
part OutputContent Yes
type enum Le type d’événement. Toujours response.content_part.added.

Valeurs possibles : response.content_part.added
Yes

ResponseContentPartDoneEvent

Émis lorsqu’une partie de contenu est terminée.

Name Type Description Required Default
content_index integer L’index du contenu qui est réalisé.
Yes
item_id string L’identifiant de l’élément de sortie auquel la partie contenu a été ajoutée.
Yes
output_index integer L’indice de l’élément de sortie auquel la partie contenu a été ajoutée.
Yes
part OutputContent Yes
type enum Le type d’événement. Toujours response.content_part.done.

Valeurs possibles : response.content_part.done
Yes

ResponseCreatedEvent

Un événement émis lors de la création d’une réponse.

Name Type Description Required Default
response response Yes
type enum Le type d’événement. Toujours response.created.

Valeurs possibles : response.created
Yes

ResponseError

Un objet d’erreur retourné lorsque le modèle ne génère pas de Réponse.

Name Type Description Required Default
code ResponseErrorCode Le code d’erreur de la réponse.
Yes
message string Une description lisible par l’homme de l’erreur.
Yes

ResponseErrorCode

Le code d’erreur de la réponse.

Property Value
Description Le code d’erreur de la réponse.
Type string
Values server_error
rate_limit_exceeded
invalid_prompt
vector_store_timeout
invalid_image
invalid_image_format
invalid_base64_image
invalid_image_url
image_too_large
image_too_small
image_parse_error
image_content_policy_violation
invalid_image_mode
image_file_too_large
unsupported_image_media_type
empty_image_file
failed_to_download_image
image_file_not_found

ResponseErrorEvent

Émis lorsqu’une erreur survient.

Name Type Description Required Default
code string Le code d’erreur.
Yes
message string Le message d’erreur.
Yes
param string Le paramètre d’erreur.
Yes
type enum Le type d’événement. Toujours error.

Valeurs possibles : error
Yes

ResponseFailedEvent

Un événement émis lorsqu’une réponse échoue.

Name Type Description Required Default
response response Yes
type enum Le type d’événement. Toujours response.failed.

Valeurs possibles : response.failed
Yes

ResponseFileSearchCallCompletedEvent

Émis lorsqu’un appel de recherche de fichier est terminé (résultats trouvés).

Name Type Description Required Default
item_id string L’identifiant de l’élément de sortie que l’appel de recherche de fichier est initié.
Yes
output_index integer L’index de l’élément de sortie que la recherche de fichier appelle est lancé.
Yes
type enum Le type d’événement. Toujours response.file_search_call.completed.

Valeurs possibles : response.file_search_call.completed
Yes

ResponseFileSearchCallInProgressEvent

Émis lors de l’initiation d’un appel de recherche de fichiers.

Name Type Description Required Default
item_id string L’identifiant de l’élément de sortie que l’appel de recherche de fichier est initié.
Yes
output_index integer L’index de l’élément de sortie que la recherche de fichier appelle est lancé.
Yes
type enum Le type d’événement. Toujours response.file_search_call.in_progress.

Valeurs possibles : response.file_search_call.in_progress
Yes

ResponseFileSearchCallSearchingEvent

Émis lorsqu’une recherche de fichier est en cours de recherche.

Name Type Description Required Default
item_id string L’identifiant de l’élément de sortie que l’appel de recherche de fichier est initié.
Yes
output_index integer L’index de l’élément de sortie que la recherche de fichier appelle en recherche.
Yes
type enum Le type d’événement. Toujours response.file_search_call.searching.

Valeurs possibles : response.file_search_call.searching
Yes

ResponseFunctionCallArgumentsDeltaEvent

Émis lorsqu’il existe un delta partiel d’arguments d’appel de fonction.

Name Type Description Required Default
delta string Les arguments d’appel de fonction delta qui sont ajoutés.
Yes
item_id string L’ID de l’élément de sortie auquel s’ajoute le delta des arguments d’appel de fonction.
Yes
output_index integer L’indice de l’élément de sortie auquel les arguments d’appel de fonction sont ajoutés.
Yes
type enum Le type d’événement. Toujours response.function_call_arguments.delta.

Valeurs possibles : response.function_call_arguments.delta
Yes

ResponseFunctionCallArgumentsDoneEvent

Émis lorsque les arguments d’appel de fonction sont finalisés.

Name Type Description Required Default
arguments string Les arguments de l’appel de fonction. Yes
item_id string L’identité de l’objet. Yes
output_index integer L’indice de l’élément sorti. Yes
type enum
Valeurs possibles : response.function_call_arguments.done
Yes

ResponseInProgressEvent

Émis lorsque la réponse est en cours.

Name Type Description Required Default
response response Yes
type enum Le type d’événement. Toujours response.in_progress.

Valeurs possibles : response.in_progress
Yes

ResponseIncompleteEvent

Un événement émis lorsqu’une réponse se termine comme incomplète.

Name Type Description Required Default
response response Yes
type enum Le type d’événement. Toujours response.incomplete.

Valeurs possibles : response.incomplete
Yes

responseItemList

Une liste des éléments de réponse.

Name Type Description Required Default
data array Une liste des éléments utilisés pour générer cette réponse. Yes
first_id string L’identifiant du premier élément de la liste. Yes
has_more boolean S’il y a d’autres articles disponibles. Yes
last_id string L’ID du dernier élément de la liste. Yes
object enum Le type d’objet retourné doit être list.
Valeurs possibles : list
Yes

ResponseModalities

Types de sortie que vous souhaitez que le modèle génère. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :

["text"]

Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :

["text", "audio"]

Aucune propriété définie pour ce composant.

ResponseModalitiesTextOnly

Types de sortie que vous souhaitez que le modèle génère. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :

["text"]

Cette API prendra bientôt en charge d’autres modalités de sortie, y compris l’audio et les images.

Aucune propriété définie pour ce composant.

ResponseOutputItemAddedEvent

Émis lorsqu’un nouvel élément de sortie est ajouté.

Name Type Description Required Default
item OutputItem Yes
output_index integer L’indice de l’élément de sortie ajouté.
Yes
type enum Le type d’événement. Toujours response.output_item.added.

Valeurs possibles : response.output_item.added
Yes

ResponseOutputItemDoneEvent

Émis lorsqu’un élément de sortie est marqué comme terminé.

Name Type Description Required Default
item OutputItem Yes
output_index integer L’index de l’élément de sortie marqué comme terminé.
Yes
type enum Le type d’événement. Toujours response.output_item.done.

Valeurs possibles : response.output_item.done
Yes

ResponseProperties

Name Type Description Required Default
instructions string Insère un message système (ou développeur) comme premier élément dans le contexte du modèle.

Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses.
No
max_output_tokens integer Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de la conversation.
No
previous_response_id string L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. No
reasoning Reasoning Options de configuration pour les modèles de raisonnement.
No
text object Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more:
- entrées et sorties de texte
- Sorties structurées
No
└─ format TextResponseFormatConfiguration Un objet spécifiant le format que le modèle doit produire.

La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut est { "type": "text" } sans options supplémentaires.

Non recommandé pour le gpt-4o et les modèles plus récents :

En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent.
No
tool_choice OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler.
No
tools array Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.

Les deux catégories d’outils que vous pouvez fournir au modèle sont :

- Outils intégrés
No
truncation enum La stratégie de troncature à utiliser pour la réponse du modèle.
- auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre contextuelle du modèle, le modèle tronquera la réponse pour s’adapter à la fenêtre de contexte en supprimant des éléments d’entrée au milieu de la conversation.
- disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.

Valeurs possibles : auto, disabled
No

ResponseRefusalDeltaEvent

Émis lorsqu’il y a un texte de refus partiel.

Name Type Description Required Default
content_index integer L’index de la partie de contenu à laquelle le texte de refus est ajouté.
Yes
delta string Le texte de refus qui est ajouté.
Yes
item_id string L’identifiant de l’élément de sortie auquel le texte de refus est ajouté.
Yes
output_index integer L’index de l’élément de sortie auquel le texte de refus est ajouté.
Yes
type enum Le type d’événement. Toujours response.refusal.delta.

Valeurs possibles : response.refusal.delta
Yes

ResponseRefusalDoneEvent

Émis lorsque le texte de refus est finalisé.

Name Type Description Required Default
content_index integer L’index du contenu indique que le texte de refus est finalisé.
Yes
item_id string L’identifiant de l’élément de sortie indiquant que le texte de refus est finalisé.
Yes
output_index integer L’index de l’élément de sortie où le texte de refus est finalisé.
Yes
refusal string Le texte de refus qui est finalisé.
Yes
type enum Le type d’événement. Toujours response.refusal.done.

Valeurs possibles : response.refusal.done
Yes

responseStreamEvent

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer L’index de l’annotation ajoutée.
Yes
arguments string Les arguments de l’appel de fonction. Yes
code string Le code d’erreur.
Yes
code_interpreter_call CodeInterpreterToolCall Un appel à l’outil pour exécuter du code.
Yes
content_index integer L’index du contenu où le texte est finalisé.
Yes
delta string Le texte delta qui a été ajouté.
Yes
item OutputItem L’élément de sortie marqué comme terminé.
Yes
item_id string L’identifiant de l’élément de sortie où le contenu du texte est finalisé.
Yes
message string Le message d’erreur.
Yes
output_index integer L’index de l’élément de sortie où le contenu du texte est finalisé.
Yes
param string Le paramètre d’erreur.
Yes
part OutputContent La partie contenu qui est terminée.
Yes
refusal string Le texte de refus qui est finalisé.
Yes
response response La réponse était incomplète.
Yes
text string Le contenu textuel qui est finalisé.
Yes
type enum Le type d’événement. Toujours response.output_text.done.

Valeurs possibles : response.output_text.done
Yes

ResponseTextAnnotationDeltaEvent

Émis lorsqu’une annotation de texte est ajoutée.

Name Type Description Required Default
annotation Annotation Yes
annotation_index integer L’index de l’annotation ajoutée.
Yes
content_index integer L’index de la partie de contenu à laquelle l’annotation de texte a été ajoutée.
Yes
item_id string L’identifiant de l’élément de sortie auquel l’annotation de texte a été ajoutée.
Yes
output_index integer L’index de l’élément de sortie auquel l’annotation de texte a été ajoutée.
Yes
type enum Le type d’événement. Toujours response.output_text.annotation.added.

Valeurs possibles : response.output_text.annotation.added
Yes

ResponseTextDeltaEvent

Émis lorsqu’il y a un delta de texte supplémentaire.

Name Type Description Required Default
content_index integer L’index de la partie contenu à laquelle le delta de texte a été ajouté.
Yes
delta string Le texte delta qui a été ajouté.
Yes
item_id string L’identifiant de l’élément de sortie auquel le delta de texte a été ajouté.
Yes
output_index integer L’index de l’élément de sortie auquel le delta de texte a été ajouté.
Yes
type enum Le type d’événement. Toujours response.output_text.delta.

Valeurs possibles : response.output_text.delta
Yes

ResponseTextDoneEvent

Émis lorsque le contenu textuel est finalisé.

Name Type Description Required Default
content_index integer L’index du contenu où le texte est finalisé.
Yes
item_id string L’identifiant de l’élément de sortie où le contenu du texte est finalisé.
Yes
output_index integer L’index de l’élément de sortie où le contenu du texte est finalisé.
Yes
text string Le contenu textuel qui est finalisé.
Yes
type enum Le type d’événement. Toujours response.output_text.done.

Valeurs possibles : response.output_text.done
Yes

ResponseUsage

Représente les détails d’utilisation des jetons, y compris les jetons d’entrée, de sortie, une répartition des jetons de sortie et le total des jetons utilisés.

Name Type Description Required Default
input_tokens integer Le nombre de jetons d’entrée. Yes
output_tokens integer Le nombre de jetons de sortie. Yes
output_tokens_details object Une analyse détaillée des jetons de sortie. Yes
└─ reasoning_tokens integer Le nombre de jetons de raisonnement. No
total_tokens integer Le nombre total de jetons utilisés. Yes

Screenshot

Une action de capture d’écran.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.

Valeurs possibles : screenshot
Yes

Scroll

Une action de défilement.

Name Type Description Required Default
scroll_x integer La distance de défilement horizontal.
Yes
scroll_y integer La distance de défilement vertical.
Yes
type enum Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours fixée à scroll.

Valeurs possibles : scroll
Yes
x integer La coordonnée x où le défilement s’est produit.
Yes
y integer La coordonnée y où le défilement a eu lieu.
Yes

StopConfiguration

Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contiendra pas la séquence d’arrêt.

Ce composant peut être l’un des suivants :

TextResponseFormatConfiguration

Un objet spécifiant le format que le modèle doit produire.

La configuration { "type": "json_schema" } permet des sorties structurées, qui garantissent que le modèle correspond à votre schéma JSON fourni.

Le format par défaut est { "type": "text" } sans options supplémentaires.

Non recommandé pour le gpt-4o et les modèles plus récents :

En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent.

Ce composant peut être l’un des suivants :

TextResponseFormatJsonSchema

Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.

Name Type Description Required Default
description string Une description du format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format.
No
name string Le nom du format de la réponse. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64.
No
schema ResponseFormatJsonSchemaSchema Le schéma pour le format de réponse est décrit comme un objet de schéma JSON. Yes
strict boolean S’il faut activer une stricte adhésion au schéma lors de la génération de la sortie.
Si le modèle est réglé sur vrai, le modèle suivra toujours exactement le schéma défini sur le schema terrain. Seul un sous-ensemble de JSON Schema est pris en charge lorsque strict est true.
No False
type enum Le type de format de réponse défini. Toujours json_schema.
Valeurs possibles : json_schema
Yes

Tool

Ce composant peut être l’un des suivants :

ToolChoiceFunction

Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.

Name Type Description Required Default
name string Le nom de la fonction à appeler. Yes
type enum Pour l’appel de fonction, le type est toujours function.
Valeurs possibles : function
Yes

ToolChoiceOptions

Contrôle quel outil (le cas échéant) est appelé par le modèle.

none signifie que le modèle n’appellera aucun outil et générera un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.

Property Value
Description Contrôle quel outil (le cas échéant) est appelé par le modèle.

none signifie que le modèle n’appellera aucun outil et générera un message.

auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.

required signifie que le modèle doit appeler un ou plusieurs outils.
Type string
Values none
auto
required

ToolChoiceTypes

Indique que le modèle doit utiliser un outil intégré pour générer une réponse.

Name Type Description Required Default
type enum Le type d’outil hébergé que le modèle doit utiliser. Les valeurs autorisées sont :
- file_search
- computer_use_preview

Valeurs possibles : file_search, computer_use_preview
Yes

Type

Une action pour taper un texte.

Name Type Description Required Default
text string Le texte à taper.
Yes
type enum Spécifie le type d’événement. Pour une action de type, cette propriété est toujours fixée à type.

Valeurs possibles : type
Yes

UpdateVectorStoreFileAttributesRequest

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres.
Yes

UrlCitation

Une citation pour une ressource web utilisée pour générer une réponse modèle.

Name Type Description Required Default
end_index integer L’index du dernier caractère de la citation de l’URL dans le message.
Yes
start_index integer L’index du premier caractère de la citation de l’URL dans le message.
Yes
title string Le titre de la ressource web.
Yes
type enum Le type de la citation de l’URL. Toujours url_citation.

Valeurs possibles : url_citation
Yes
url string L’URL de la ressource web.
Yes

VectorStoreFileAttributes

Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres.

Aucune propriété définie pour ce composant.

VectorStoreFileContentResponse

Représente le contenu analysé d’un fichier de stockage vectoriel.

Name Type Description Required Default
data array Contenu analysé du fichier. Yes
has_more boolean Indique s’il y a plus de pages de contenu à récupérer. Yes
next_page string Le jeton pour la page suivante, s’il y en a. Yes
object enum Le type d’objet, qui est toujours vector_store.file_content.page
Valeurs possibles : vector_store.file_content.page
Yes

VectorStoreSearchRequest

Name Type Description Required Default
filters Filtre de comparaison ou filtre composé Un filtre à appliquer basé sur les attributs du fichier. No
max_num_results integer Le nombre maximal de résultats à revendre. Ce nombre devrait être compris entre 1 et 50. No 10
query chaîne ou tableau Une chaîne de requête pour une recherche Yes
ranking_options object Options de classement pour la recherche. No
└─ ranker enum Valeurs possibles : auto, default-2024-11-15 No
└─ score_threshold number No 0
rewrite_query boolean S’il faut réécrire la requête en langage naturel pour la recherche vectorielle. No False

VectorStoreSearchResultContentObject

Name Type Description Required Default
text string Le contenu du texte est revenu de la recherche. Yes
type enum Le type de contenu.
Valeurs possibles : text
Yes

VectorStoreSearchResultItem

Name Type Description Required Default
attributes VectorStoreFileAttributes Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres.
Yes
content array Des morceaux de contenu du fichier. Yes
file_id string L’identifiant du fichier de stockage vectoriel. Yes
filename string Le nom du fichier de stockage vectoriel. Yes
score number Le score de similarité pour le résultat. Yes

VectorStoreSearchResultsPage

Name Type Description Required Default
data array La liste des éléments de résultats de recherche. Yes
has_more boolean Indique s’il y a d’autres résultats à obtenir. Yes
next_page string Le jeton pour la page suivante, s’il y en a. Yes
object enum Le type d’objet, qui est toujours vector_store.search_results.page
Valeurs possibles : vector_store.search_results.page
Yes
search_query array Yes

VoiceIdsShared

Aucune propriété définie pour ce composant.

Wait

Une action d’attente.

Name Type Description Required Default
type enum Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie à wait.

Valeurs possibles : wait
Yes

ReasoningEffort

Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.

Property Value
Description Limite l’effort de raisonnement pour les modèles de raisonnement.
Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.
Type string
Default medium
Values low
medium
high

errorEvent

Apparaît lorsqu’une erreur survient. Cela peut arriver à cause d’une erreur interne du serveur ou d’un délai d’attente.

Name Type Description Required Default
data error Yes
event string Yes

événement Enum : ErrorEventEnum

Value Description
error

doneEvent

Ça se produit lorsqu’un flux se termine.

Name Type Description Required Default
data string Yes
event string Yes

événement Enum : DoneEventEnum

Value Description
done

data Enum : DoneEventDataEnum

Value Description
[DONE]

Next steps

Apprenez-en plus sur les modèles et l’ajustement fin avec l’API REST. En savoir plus sur les modèles sous-jacents qui alimentent Azure OpenAI.