Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article fournit des détails sur les points de terminaison de l’API REST d’inférence pour Azure OpenAI.
API specs
La gestion et l’interaction avec les modèles et ressources Azure OpenAI sont réparties sur trois surfaces d’API principales :
- Control plane
- Plan de données - création
- Plan de données - inférence
Chaque surface/spécification de l’API encapsule un ensemble différent de fonctionnalités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’API en préversion et stables/en disponibilité générale (GA). Actuellement, les préversions ont tendance à suivre une cadence mensuelle.
Important
Il existe maintenant une nouvelle API d’inférence en préversion. En savoir plus dans notre guide de cycle de vie des API.
| API | Dernière préversion | Dernière version en disponibilité générale | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | L’API de plan de contrôle est utilisée pour les opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de niveau supérieur. Le plan de contrôle régit également ce qui est possible avec les fonctionnalités telles qu’Azure Resource Manager, Bicep, Terraform et Azure CLI. |
| Data plane | v1 preview |
v1 |
Spec files | L’API du plan de données contrôle les opérations d’inférence et de création. |
Authentication
Azure OpenAI fournit deux méthodes d’authentification. Vous pouvez utiliser les clés API ou l’ID Microsoft Entra.
Authentification par clé API : pour ce type d’authentification, toutes les demandes d’API doivent inclure la clé API dans l’en-tête
api-keyHTTP. Le guide de démarrage rapide fournit des conseils sur la façon d’effectuer des appels avec ce type d’authentification.Authentification de l’ID Microsoft Entra : vous pouvez authentifier un appel d’API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont inclus dans une requête en tant qu’en-tête
Authorization. Le jeton fourni doit être précédéBearer, par exempleBearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur l’authentification avec l’ID Microsoft Entra.
Contrôle de version de l’API REST
Les API de service sont versionnée à l’aide du api-version paramètre de requête. Toutes les versions suivent la structure de dates aaaa-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inférence du plan de données
Le reste de l’article couvre la 2025-04-01-preview préversion de la spécification d’inférence du plan de données Azure OpenAI.
Si vous recherchez de la documentation sur la dernière version de l’API GA, reportez-vous à la dernière API d’inférence du plan de données ga
Saisie semi-automatique - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Génère des achèvements best_of côté serveur et retourne le « meilleur » (celui avec la probabilité de journal la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Lorsqu’il est utilisé avec Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| echo | boolean | Renvoyer l’invite en plus de l’achèvement | No | False |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. | No | 0 |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <jeton |endoftext|> . |
No | None |
| logprobs | integer | Incluez les probabilités de journal sur les jetons de logprobs sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs elle est 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 des éléments dans la réponse.La valeur maximale de logprobs 5. |
No | None |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. |
No | 16 |
| n | integer | Nombre d’achèvements à générer pour chaque invite. Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | No | 0 |
| prompt | chaîne ou tableau | Invite à générer des achèvements pour, encodés sous la forme d’une chaîne, d’un tableau de chaînes, d’un tableau de jetons ou d’un tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de document que le modèle voit lors de l’entraînement. Par conséquent, si une invite n’est pas spécifiée, le modèle génère comme si à partir du début d’un nouveau document. |
Yes | |
| seed | integer | S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à quatre séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. | No | |
| stream | boolean | Indique s’il faut renvoyer la progression partielle. Si elles sont définies, les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message.
Exemple de code Python. |
No | False |
| suffix | string | Suffixe qui vient après la fin du texte inséré. Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Code d’état : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Réponses : Code d’état : 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporations - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par les modèles et algorithmes Machine Learning.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | ID de déploiement du modèle déployé. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. |
No | |
| encoding_format | string | Format dans lequel retourner les incorporations. Peut être soit float ou base64. La valeur par défaut est float. |
No | |
| input | chaîne ou tableau | Texte d’entrée à incorporer, encodé en tant que chaîne ou tableau de jetons. Pour incorporer plusieurs entrées dans une seule requête, transmettez un tableau de chaînes ou de tableaux de jetons. L’entrée ne doit pas dépasser les jetons d’entrée max pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide, et tout tableau doit être de 2 048 dimensions ou moins. |
Yes | |
| input_type | string | type d’entrée de la recherche d’incorporation à utiliser | No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et à détecter les abus. | No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Retournez les incorporations pour une invite donnée.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Réponses : Code d’état : 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Saisie semi-automatique de conversation - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Crée une saisie semi-automatique pour le message de conversation
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16. Valeurs possibles : wav, , mp3flac, opus,pcm16 |
No | |
| └─ voice | enum | Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.Valeurs possibles : alloy, , echofable, onyx, novashimmer |
No | |
| data_sources | array | Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
No | |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice.Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas une fonction et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la valeur par défaut quand aucune fonction n’est présente.
auto est la valeur par défaut si les fonctions sont présentes. |
No | |
| functions | array | Déconseillé en faveur de tools.Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
No | None |
| logprobs | boolean | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . |
No | False |
| max_completion_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
No | |
| messages | array | Liste des messages comprenant la conversation jusqu’à présent. Exemple de code Python. | Yes | |
| metadata | object | Balises et valeurs définies par le développeur utilisées pour filtrer les achèvements dans le tableau de bord des saisies semi-automatique stockées. | No | |
| modalities | ChatCompletionModalities | Types de sortie que vous souhaitez générer pour ce modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :["text", "audio"] |
No | |
| n | integer | Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| prediction | PredictionContent | Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous régénéez un fichier avec uniquement des modifications mineures apportées à la plupart du contenu. | No | |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
No | 0 |
| reasoning_effort | enum |
Modèles o1 uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.Valeurs possibles : low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.Paramètre permettant d’activer { "type": "json_schema", "json_schema": {...} } les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.Le paramètre permettant { "type": "json_object" } d’activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| seed | integer | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. |
No | |
| store | boolean | Indique si la sortie de cette demande de saisie semi-automatique de conversation doit être utilisée dans nos produits de validation ou d’évaluation de modèle. | No | |
| stream | boolean | Si cette option est définie, les deltas de messages partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message.
Exemple de code Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 la rendent plus ciblée et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si les outils sont présents. |
No | |
| tools | array | Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée.
logprobs doit être défini true sur si ce paramètre est utilisé. |
No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No | |
| user_security_context | userSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. En savoir plus sur la protection des applications IA à l’aide de Microsoft Defender pour Cloud. | No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Code d’état : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crée une saisie semi-automatique pour l’invite, les paramètres et le modèle choisi fournis.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique basée sur les données Azure Search et l’identité managée affectée par le système.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique basée sur les données de vecteur d’image Recherche Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique basée sur les données vectorielles recherche Azure, le message assistant précédent et l’identité managée affectée par l’utilisateur.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique pour Azure Cosmos DB fourni.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique pour la base de données Mongo fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique pour Elasticsearch fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une saisie semi-automatique pour la ressource Pinecone fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcriptions - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcrit l’audio dans la langue d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID du modèle à utiliser. Les options sont gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15, whisper-1, et gpt-4o-transcribe-diarize. |
Yes | |
| file | string | Objet de fichier audio à transcrire. | Yes | |
| language | string | Langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. | No | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
| timestamp_granularities[] | array | Granularités d’horodatage à remplir pour cette transcription.
response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texte transcrit au format de sortie (lorsque response_format était l’un des textéléments ou vttsrt). |
Examples
Example
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traductions - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcrit et traduit l’audio d’entrée en texte anglais.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Fichier audio à traduire. | Yes | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texte transcrit au format de sortie (lorsque response_format était l’un des textes, vtt ou srt). |
Examples
Example
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code d’état : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Speech - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Génère de l’audio à partir du texte d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| response_format | enum | Format dans lequel synthétiser l’audio. Valeurs possibles : mp3, , opusaac, flac, wavpcm |
No | |
| speed | number | Vitesse de l’audio synthétisé. Sélectionnez une valeur à 0.25partir de 4.0 .
1.0 est la valeur par défaut. |
No | 1.0 |
| voice | enum | Voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, , echofable, onyx, novashimmer |
Yes |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Synthétise l’audio à partir du texte fourni.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Réponses : Code d’état : 200
{
"body": "101010101"
}
Générations d’images - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Génère un lot d’images à partir d’une légende de texte sur un déploiement de modèle de génération d’images donné
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permet de définir la transparence pour l’arrière-plan des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. | No | auto |
| n | integer | Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. | No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. | No | 100 |
| output_format | imagesOutputFormat | Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. | No | png |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour la série gpt-image-1 et 4 000 caractères pour dall-e-3 | Yes | |
| partial_images | integer | Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement. | 0 | |
| stream | boolean | Modifiez l’image en mode streaming. | no | false |
| quality | imageQuality | Qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles -series qui retournent toujours des images codées en base64.Valeurs possibles : url, b64_json. |
No | url |
| size | imageSize | Taille des images générées. | No | auto |
| style | imageStyle | Style des images générées. Prise en charge uniquement pour dall-e-3. | No | vivid |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
Responses
Code d’état : 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Code d’état : par défaut
Description : Une erreur s’est produite.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crée des images à l’invite.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Réponses : Code d’état : 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Générations d’images - Modifier
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Modifie une image à partir d’une légende de texte sur un déploiement de modèle gpt-image-1 donné
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | chaîne ou tableau | Image à modifier. Doit être un fichier image pris en charge ou un tableau d’images. Chaque image doit être un fichier png ou jpg inférieur à 50 Mo. | Yes | |
| input_fidelity | string | Contrôler l’effort que le modèle exercera pour correspondre au style et aux caractéristiques, en particulier les caractéristiques faciales, des images d’entrée. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. Prend en charge high et low. |
no |
low. |
| mask | string | Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. | No | |
| n | integer | Nombre d’images à générer. Doit être compris entre 1 et 10. | No | 1 |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. | Yes | |
| quality | imageQuality | Qualité de l’image qui sera générée. | No | auto |
| partial_images | Nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses de diffusion en continu qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est définie sur 0, la réponse est une seule image envoyée dans un événement de streaming. Notez que l’image finale peut être envoyée avant le nombre total d’images partielles générées si l’image complète est générée plus rapidement. | |||
| stream | boolean | Modifiez l’image en mode streaming. | no | false |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | No | url |
| size | imageSize | Taille des images générées. | No | auto |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
Responses
Code d’état : 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Code d’état : par défaut
Description : Une erreur s’est produite.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Liste - Assistants
Note
L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retourne une liste d’assistants.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Retourne une liste d’assistants.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Créer - Assistant
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Créez un assistant avec un modèle et des instructions.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système que l’Assistant utilise. La longueur maximale est de 256 000 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | Yes | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| └─ vector_stores | array | Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Créez un assistant avec un modèle et des instructions.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Réponses : Code d’état : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obtenir - Assistant
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Récupère un assistant.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID de l’Assistant à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Récupère un assistant.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modifier - Assistant
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifie un assistant.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID de l’Assistant à modifier. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système que l’Assistant utilise. La longueur maximale est de 32768 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | No | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Remplace la liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Remplace le magasin vectoriel attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifie un assistant.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Réponses : Code d’état : 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Supprimer - Assistant
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Supprimez un assistant.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | ID de l’Assistant à supprimer. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Supprime un assistant.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Créer - Thread
Note
L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Créez un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Liste des messages avec utilisant lequel démarrer le thread. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| tool_resources | object | Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No | |
| └─ vector_stores | array | Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Crée un thread.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obtenir - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Récupère un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Récupère un thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifier - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifie un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à modifier. Seul le metadata fichier peut être modifié. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| tool_resources | object | Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifie un thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Supprimer - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Supprimez un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à supprimer. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Supprime un thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Liste - Messages
Note
L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retourne une liste de messages pour un thread donné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads auxquels appartiennent les messages. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| run_id | query | No | string | Filtrez les messages par l’ID d’exécution qui les a générés. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Créer - Message
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Créez un message.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads pour utilisant lequel créer un message. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Liste des fichiers joints au message et outils auxquels ils doivent être ajoutés. | No | |
| content | string | Contenu du message. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| role | string | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user: indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.- assistant: indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’Assistant dans la conversation. |
Yes |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Créez un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Réponses : Code d’état : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obtenir - Message
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Récupérer un message.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads auxquels ce message appartient. |
| message_id | path | Yes | string | ID du message à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Récupérer un message.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifier - Message
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifie un message.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel ce message appartient. |
| message_id | path | Yes | string | ID du message à modifier. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modifiez un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Créer - Thread and Run
Note
L’API Assistants est déconseillée et sera mise hors service le 26 août 2026. Utilisez le service Microsoft Foundry Agents en disponibilité générale. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Créez un thread et exécutez-le dans une seule requête.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’Assistant à utiliser pour exécuter cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| max_prompt_tokens | integer | Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message. |
No | |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. | No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Créez un thread et exécutez-le dans une seule requête.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Liste - Exécutions
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retourne une liste d’exécutions appartenant à un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel appartient l’exécution. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retourne une liste d’exécutions appartenant à un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Créer - Exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Créez une exécution.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread à exécuter. |
| include[] | query | No | array | Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge consiste step_details.tool_calls[*].file_search.results[*].content à extraire le contenu du résultat de la recherche de fichiers. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions pour l’exécution. Cela est utile pour modifier le comportement par exécution sans remplacer d’autres instructions. | No | |
| additional_messages | array | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | No | |
| assistant_id | string | ID de l’Assistant à utiliser pour exécuter cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| max_prompt_tokens | integer | Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tools | array | Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. | No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Créez une exécution.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obtenir - Exécuter
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Récupère une exécution.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads qui ont été exécutés. |
| run_id | path | Yes | string | ID de l’exécution à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Obtient une exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifier - Exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifie une exécution.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads qui ont été exécutés. |
| run_id | path | Yes | string | ID de l’exécution à modifier. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifie une exécution.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Envoyer - Sorties de l’outil à exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Lorsqu’une exécution a la status: "requires_action" valeur et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’ils sont tous terminés. Toutes les sorties doivent être envoyées dans une seule requête.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID des threads auxquels appartient cette exécution. |
| run_id | path | Yes | string | ID de l’exécution qui nécessite la soumission de sortie de l’outil. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message. |
No | |
| tool_outputs | array | Liste des outils pour lesquels les sorties sont envoyées. | Yes |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Lorsqu’une exécution a la status: "requires_action" valeur et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour envoyer les sorties à partir des appels d’outil une fois qu’ils sont tous terminés. Toutes les sorties doivent être envoyées dans une seule requête.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annuler - Exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Annule une exécution qui est in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel appartient cette exécution. |
| run_id | path | Yes | string | ID de l’exécution à annuler. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Annule une exécution qui est in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Liste - Étapes d’exécution
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retourne une liste des étapes d’exécution appartenant à une exécution.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID du thread auquel appartiennent les étapes d’exécution et d’exécution. |
| run_id | path | Yes | string | L’ID de l’exécution des étapes d’exécution appartient. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge consiste step_details.tool_calls[*].file_search.results[*].content à extraire le contenu du résultat de la recherche de fichiers. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retourne une liste des étapes d’exécution appartenant à une exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Get - Exécuter l’étape
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Récupère une étape d’exécution.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | ID du thread auquel appartient l’étape d’exécution et d’exécution. |
| run_id | path | Yes | string | ID de l’exécution à laquelle appartient l’étape d’exécution. |
| step_id | path | Yes | string | ID de l’étape d’exécution à récupérer. |
| include[] | query | No | array | Liste des champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge consiste step_details.tool_calls[*].file_search.results[*].content à extraire le contenu du résultat de la recherche de fichiers. |
| api-version | query | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Récupère une étape d’exécution.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Liste - Magasins vectoriels
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retourne une liste de magasins vectoriels.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retourne une liste de magasins vectoriels.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Créer - Magasin de vecteurs
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Créez un magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. Applicable uniquement s’il file_ids n’est pas vide. |
No | |
| expires_after | vectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| file_ids | array | Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Crée un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obtenir – Magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Récupère un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à récupérer. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Récupère un magasin vectoriel.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifier - Magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifie un magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à modifier. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifie un magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Supprimer - Magasin de vecteurs
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Supprimez un magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à supprimer. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Supprime un magasin vectoriel.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Liste - Fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retourne une liste de fichiers de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartiennent les fichiers. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| filter | query | No | string Valeurs possibles : in_progress, , completedfailed,cancelled |
Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. . |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retourne une liste de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Créer - Fichier de magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs pour lequel créer un fichier. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_id | string | ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin vectoriel.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Réponses : Code d’état : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obtenir - Fichier de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Récupère un fichier de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier récupéré. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Récupère un fichier de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Supprimer - Fichier de magasin de vecteurs
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin vectoriel, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression du fichier.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier à supprimer. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin vectoriel, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression du fichier.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Mettez à jour les attributs sur un fichier de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier pour mettre à jour les attributs. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. |
Yes |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Récupérer le contenu du fichier de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Récupérez le contenu analysé d’un fichier de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs. |
| file_id | path | Yes | string | ID du fichier dans le magasin de vecteurs. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Magasin de vecteurs de recherche
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Recherchez un magasin de vecteurs pour les blocs pertinents en fonction d’un filtre d’attributs de requête et de fichier.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à rechercher. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | No | |
| max_num_results | integer | Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. | No | 10 |
| query | chaîne ou tableau | Chaîne de requête pour une recherche | Yes | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ ranker | enum | Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | No | False |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Créer - Lot de fichiers du magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Créez un lot de fichiers de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs pour lequel créer un lot de fichiers. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_ids | array | Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Créez un lot de fichiers de magasin de vecteurs.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Réponses : Code d’état : 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obtenir – Lot de fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Récupère un lot de fichiers de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers récupéré. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Récupère un lot de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annuler - Lot de fichiers du magasin de vecteurs
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers à annuler. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Liste - Fichiers de fichiers de magasin de vecteurs
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retourne une liste de fichiers de magasin de vecteurs dans un lot.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartiennent les fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers auquel appartiennent les fichiers. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant et desc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste. Par exemple, si vous effectuez une demande de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| filter | query | No | string Valeurs possibles : in_progress, , completedfailed,cancelled |
Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. . |
| api-version | query | Yes | string | api version |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retourne une liste de fichiers de magasin de vecteurs.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Réponses : Code d’état : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Créer - Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel. Peut être configuré avec les mêmes paramètres de session que l’événement session.update client.
Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, la valeur par défaut est désactivée et peut être définie pour null désactiver une seule fois. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | string | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1. |
No | |
| └─ prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| instructions | string | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| model | string | Nom du déploiement utilisé pour cette session. |
No | |
| output_audio_format | enum | Format de l’audio de sortie. Les options sont pcm16, g711_ulawou g711_alaw.Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales. |
No | 0.8 |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction. |
No | auto |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de tour. Valeurs possibles : server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Code d’état : 200
Description : Session créée avec succès.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Créer : Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Créez un jeton d’API éphémère à utiliser dans les applications côté client avec l’API Temps réel spécifiquement pour les transcriptions en temps réel.
Peut être configuré avec les mêmes paramètres de session que l’événement transcription_session.update client.
Il répond avec un objet de session, ainsi qu’une client_secret clé qui contient un jeton d’API éphémère utilisable qui peut être utilisé pour authentifier les clients de navigateur pour l’API En temps réel.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants : - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | enum | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1.Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de tour. Valeurs possibles : server_vad, semantic_vad |
No |
Responses
Code d’état : 200
Description : Session créée avec succès.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Crée une réponse de modèle.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | chaîne ou tableau | Model inputs | Yes | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
No | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. En savoir plus sur l’état de conversation. |
No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. | No | |
| store | boolean | Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. |
No | True |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. Pour plus d’informations, consultez la section Streaming ci-dessous. |
No | False |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more: - Entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent le model's capabilities |
No | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Code d’état : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Réponses - Éléments d’entrée
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Récupère une réponse de modèle avec l’ID donné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID de la réponse à récupérer. |
| include | query | No | array | Champs supplémentaires à inclure dans la réponse. Pour plus d’informations, consultez le include paramètre de création de réponse ci-dessus. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Code d’état : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Supprime une réponse de modèle avec l’ID donné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID de la réponse à supprimer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
Code d’état : 404
Description : Introuvable
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Code d’état : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Réponses - liste d’éléments de réponse
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retourne une liste d’éléments d’entrée pour une réponse donnée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Points de terminaison Azure OpenAI pris en charge (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | ID de la réponse pour laquelle récupérer les éléments d’entrée. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Ordre de retour des éléments d’entrée. La valeur par défaut est asc.- asc: retourne les éléments d’entrée dans l’ordre croissant.- desc: retourne les éléments d’entrée dans l’ordre décroissant. |
| after | query | No | string | ID d’élément pour répertorier les éléments après, utilisé dans la pagination. |
| before | query | No | string | ID d’élément pour répertorier les éléments avant, utilisé dans la pagination. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide d’Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournir une clé API Azure OpenAI ici |
Responses
Code d’état : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erreur interne avec des détails supplémentaires. | No | |
| param | string | No | ||
| type | string | No |
innerError
Erreur interne avec des détails supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | No | |
| content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. | No |
innerErrorCode
Codes d’erreur pour l’objet d’erreur interne.
| Property | Value |
|---|---|
| Description | Codes d’erreur pour l’objet d’erreur interne. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erreur interne avec des détails supplémentaires. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Erreur interne avec des détails supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | No | |
| content_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. | No | |
| revised_prompt | string | Invite utilisée pour générer l’image, s’il y a eu une révision de l’invite. | No |
contentFilterCompletionTextSpan
Décrit une étendue dans le texte de saisie semi-automatique généré. Offset 0 est le premier point de code UTF32 du texte de saisie semi-automatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Décalage du premier point de code UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. | Yes | |
| completion_start_offset | integer | Décalage du point de code UTF32 qui commence l’étendue. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informations sur les résultats du filtrage de contenu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le texte et la profanité tiers, s’il a été détecté et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Résultats du filtrage de contenu pour une seule invite dans la requête.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. | No | |
| prompt_index | integer | No |
promptFilterResults
Résultats du filtrage de contenu pour zéro ou plusieurs invites dans la requête. Dans une demande de diffusion en continu, les résultats des différentes invites peuvent arriver à des moments différents ou dans différentes commandes.
Aucune propriété définie pour ce composant.
dalleContentFilterResults
Informations sur les résultats du filtrage de contenu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Résultats du filtrage de contenu avec un détail d’ID de filtre de contenu pour les segments filtrés. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. | No | 0 |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet json qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | No | |
| max_completion_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons autorisés pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner est (4096 - jetons d’invite). Cela n’est pas compatible avec les modèles de série o1. | No | 4096 |
| metadata | object | Balises et valeurs définies par le développeur utilisées pour filtrer les achèvements dans le tableau de bord des saisies semi-automatique stockées. | No | |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | No | 0 |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. | No | |
| store | boolean | Indique si la sortie de cette demande de saisie semi-automatique de conversation doit être utilisée dans nos produits de validation ou d’évaluation de modèle. | No | |
| stream | boolean | Si cette option est définie, les deltas de messages partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message. |
No | False |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et détecter les abus. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Génère des achèvements best_of côté serveur et retourne le « meilleur » (celui avec la probabilité de journal la plus élevée par jeton). Les résultats ne peuvent pas être diffusés en continu.Lorsqu’il est utilisé avec n, best_of contrôle le nombre d’achèvements de candidats et n spécifie le nombre à retourner.
best_of doit être supérieur à n.Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| echo | boolean | Renvoyer l’invite en plus de l’achèvement |
No | False |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. |
No | 0 |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <jeton |endoftext|> . |
No | None |
| logprobs | integer | Incluez les probabilités de journal sur les jetons de logprobs sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs elle est 5, l’API retourne une liste des 5 jetons les plus probables. L’API retourne toujours le logprob jeton échantillonné. Il peut donc y avoir jusqu’à logprobs+1 des éléments dans la réponse.La valeur maximale de logprobs 5. |
No | None |
| max_tokens | integer | Le nombre maximal de jetons peut être généré dans la saisie semi-automatique. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur du contexte du modèle. |
No | 16 |
| n | integer | Nombre d’achèvements à générer pour chaque invite. Note: Étant donné que ce paramètre génère de nombreuses saisies semi-automatiques, il peut rapidement consommer votre quota de jetons. Utilisez attentivement et assurez-vous que vous disposez de paramètres raisonnables pour max_tokens et stop. |
No | 1 |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
No | 0 |
| prompt | chaîne ou tableau | Invite(s) à générer des achèvements pour, encodés en tant que chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de document que le modèle voit pendant l’entraînement. Par conséquent, si une invite n’est pas spécifiée, le modèle génère comme s’il s’agit du début d’un nouveau document. |
Yes | |
| seed | integer | S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
No | |
| stream | boolean | Indique s’il faut renvoyer la progression partielle. Si elles sont définies, les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message.
Exemple de code Python. |
No | False |
| suffix | string | Suffixe qui vient après la fin du texte inséré. Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No |
createCompletionResponse
Représente une réponse d’achèvement de l’API. Remarque : les objets de réponse diffusés en continu et non diffusés partagent la même forme (contrairement au point de terminaison de conversation).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix d’achèvement générés pour l’invite d’entrée. | Yes | |
| created | integer | Horodatage Unix (en secondes) de la création de l’achèvement. | Yes | |
| id | string | Identificateur unique de la saisie semi-automatique. | Yes | |
| model | string | Modèle utilisé pour l’achèvement. | Yes | |
| object | enum | Type d’objet, qui est toujours « text_completion » Valeurs possibles : text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plusieurs invites dans la requête. Dans une demande de diffusion en continu, les résultats des différentes invites peuvent arriver à des moments différents ou dans différentes commandes. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute. Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme. |
No | |
| usage | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16. Valeurs possibles : wav, , mp3flac, opus,pcm16 |
No | |
| └─ voice | enum | Spécifie le type de voix. Les voix prises en charge sont alloy, , echofable, onyx, novaet shimmer.Valeurs possibles : alloy, , echofable, onyx, novashimmer |
No | |
| data_sources | array | Entrées de configuration pour les extensions de conversation Azure OpenAI qui les utilisent. Cette spécification supplémentaire est uniquement compatible avec Azure OpenAI. |
No | |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Déconseillé en faveur de tool_choice.Contrôle la fonction (le cas échéant) appelée par le modèle. none signifie que le modèle n’appelle pas une fonction et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la valeur par défaut quand aucune fonction n’est présente.
auto est la valeur par défaut si les fonctions sont présentes. |
No | |
| functions | array | Déconseillé en faveur de tools.Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
No | None |
| logprobs | boolean | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . |
No | False |
| max_completion_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
No | |
| messages | array | Liste des messages comprenant la conversation jusqu’à présent. Exemple de code Python. | Yes | |
| metadata | object | Balises et valeurs définies par le développeur utilisées pour filtrer les achèvements dans le tableau de bord des saisies semi-automatique stockées. | No | |
| modalities | ChatCompletionModalities | Types de sortie que vous souhaitez générer pour ce modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :["text", "audio"] |
No | |
| n | integer | Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| prediction | PredictionContent | Configuration d’une sortie prédite, qui peut considérablement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. Cela est le plus courant lorsque vous régénéez un fichier avec uniquement des modifications mineures apportées à la plupart du contenu. | No | |
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. |
No | 0 |
| reasoning_effort | enum |
Modèles o1 uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.Valeurs possibles : low, , mediumhigh |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Objet spécifiant le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.Paramètre permettant d’activer { "type": "json_schema", "json_schema": {...} } les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni.Le paramètre permettant { "type": "json_object" } d’activer le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| seed | integer | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système fait le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. |
No | |
| store | boolean | Indique si la sortie de cette demande de saisie semi-automatique de conversation doit être utilisée dans nos produits de validation ou d’évaluation de modèle. | No | |
| stream | boolean | Si cette option est définie, les deltas de messages partiels sont envoyés, comme dans ChatGPT. Les jetons sont envoyés en tant qu’événements envoyés par le serveur uniquement au fur et à mesure qu’ils deviennent disponibles, avec le flux arrêté par un data: [DONE] message.
Exemple de code Python. |
No | False |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si les outils sont présents. |
No | |
| tools | array | Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée.
logprobs doit être défini true sur si ce paramètre est utilisé. |
No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No | |
| user_security_context | userSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. En savoir plus sur la protection des applications IA à l’aide de Microsoft Defender pour Cloud. | No |
userSecurityContext
Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. En savoir plus sur la protection des applications IA à l’aide de Microsoft Defender pour Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_id | string | Cet identificateur est l’ID d’objet utilisateur Microsoft Entra (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_tenant_id | string | L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multilocataire. | No | |
| source_ip | string | Capture l’adresse IP du client d’origine, acceptant les formats IPv4 et IPv6. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| parameters | FunctionParameters | Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON.
Consultez le guide pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format. Omettre parameters définit une fonction avec une liste de paramètres vide. |
No |
chatCompletionFunctionCallOption
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de la fonction à appeler. | Yes |
chatCompletionFunctionParameters
Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide/ pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format.
Aucune propriété définie pour ce composant.
chatCompletionRequestMessage
Ce composant peut être l’un des éléments suivants :
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur.
Avec les modèles o1 et les versions ultérieures, developer les messages remplacent les messages précédents system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message du développeur. | Yes | |
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas developer.Valeurs possibles : developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message système. | Yes | |
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas system.Valeurs possibles : system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message utilisateur. |
Yes | |
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas user.Valeurs possibles : user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message assistant. Obligatoire, sauf indication tool_callsfunction_call contraire. |
No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. | No | |
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| refusal | string | Message de refus de l’assistant. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas assistant.Valeurs possibles : assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Les appels d’outil générés par le modèle, tels que les appels de fonction. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu du message de l’outil. | Yes | |
| role | enum | Rôle de l’auteur des messages, dans ce cas tool.Valeurs possibles : tool |
Yes | |
| tool_call_id | string | Appel de l’outil auquel ce message répond. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message de fonction. | Yes | |
| name | string | Nom de la fonction à appeler. | Yes | |
| role | enum | Rôle de l’auteur des messages, dans ce cas function.Valeurs possibles : function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestSystemMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestUserMessageContentPart
Ce composant peut être l’un des éléments suivants :
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestToolMessageContentPart
Ce composant peut être l’un des éléments suivants :
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenu du texte. | Yes | |
| type | enum | Type de la partie de contenu. Valeurs possibles : text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Données audio encodées en base64. | No | |
| └─ format | enum | Format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ». Valeurs possibles : wav, mp3 |
No | |
| type | enum | Type de la partie de contenu. Toujours input_audio.Valeurs possibles : input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Spécifie le niveau de détail de l’image. En savoir plus dans le guide Vision. Valeurs possibles : auto, , lowhigh |
No | |
| └─ url | string | URL de l’image ou des données d’image encodées en base64. | No | |
| type | enum | Type de la partie de contenu. Valeurs possibles : image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Message de refus généré par le modèle. | Yes | |
| type | enum | Type de la partie de contenu. Valeurs possibles : refusal |
Yes |
azureChatExtensionConfiguration
Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
###Discriminator pour azureChatExtensionConfiguration
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureChatExtensionType
Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
| Property | Value |
|---|---|
| Description | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Représentation spécifique des options configurables pour Recherche Azure lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Paramètres de Recherche Azure lorsqu’ils sont utilisés comme extension de conversation Azure OpenAI. | No | |
| type | azureChatExtensionType | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Paramètres de Recherche Azure lorsqu’ils sont utilisés comme extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | No | ||
| endpoint | string | Chemin d’accès absolu du point de terminaison de la ressource Recherche Azure à utiliser. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Recherche Azure configurée. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom de l’index à utiliser comme disponible dans la ressource Recherche Azure référencée. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| query_type | azureSearchQueryType | Type de requête de récupération Recherche Azure qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | No | |
| semantic_configuration | string | Configuration sémantique supplémentaire pour la requête. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. | No |
azureSearchIndexFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Recherche Azure configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Noms des champs d’index qui doivent être traités comme du contenu. | No | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin de fichier. | No | |
| image_vector_fields | array | Noms des champs qui représentent des données de vecteur d’image. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms des champs qui représentent des données vectorielles. | No |
azureSearchQueryType
Type de requête de récupération Recherche Azure qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Property | Value |
|---|---|
| Description | Type de requête de récupération Recherche Azure qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Représentation spécifique des options configurables pour Azure Cosmos DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore. | No | |
| type | azureChatExtensionType | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion. | Yes | |
| container_name | string | Nom du conteneur de ressources Azure Cosmos DB. | Yes | |
| database_name | string | Nom de la base de données vCore MongoDB à utiliser avec Azure Cosmos DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. | Yes | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom de l’index vCore MongoDB à utiliser avec Azure Cosmos DB. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. | No |
azureCosmosDBFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Noms des champs d’index qui doivent être traités comme du contenu. | Yes | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms des champs qui représentent des données vectorielles. | Yes |
elasticsearchChatExtensionConfiguration
Représentation spécifique des options configurables pour Elasticsearch lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI. | No | |
| type | azureChatExtensionType | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | No | ||
| endpoint | string | Point de terminaison d’Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. | No | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom d’index de Elasticsearch®. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| query_type | elasticsearchQueryType | Type de requête de récupération Elasticsearch® qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. | No |
elasticsearchIndexFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Noms des champs d’index qui doivent être traités comme du contenu. | No | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms des champs qui représentent des données vectorielles. | No |
elasticsearchQueryType
Type de requête de récupération Elasticsearch® qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Property | Value |
|---|---|
| Description | Type de requête de récupération Elasticsearch® qui doit être exécuté lors de son utilisation en tant qu’extension de conversation Azure OpenAI. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Représentation spécifique des options configurables pour Mongo DB lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation de Mongo DB. | No | |
| type | azureChatExtensionType | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Paramètres à utiliser lors de la configuration d’Azure OpenAI sur vos extensions de conversation de données lors de l’utilisation de Mongo DB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| app_name | string | Nom de l’application Mongo DB. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. | Yes | |
| collection_name | string | Nom de la collection de bases de données Mongo. | Yes | |
| database_name | string | Nom de la base de données Mongo DB. | Yes | |
| embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Yes | ||
| endpoint | string | Nom du point de terminaison du cluster Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Mongo DB configurée. | Yes | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom de l’index de base de données Mongo. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. | No |
mongoDBFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Mongo DB configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Noms des champs d’index qui doivent être traités comme du contenu. | Yes | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| vector_fields | array | Noms des champs qui représentent des données vectorielles. | Yes |
pineconeChatExtensionConfiguration
Représentation spécifique des options configurables pour Pinecone lors de son utilisation en tant qu’extension de conversation Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone. | No | |
| type | azureChatExtensionType | Représentation des données de configuration pour une seule extension de conversation Azure OpenAI. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser les extensions de conversation Azure OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Paramètres de configuration des extensions de conversation Azure OpenAI Pinecone.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et l’échec de la requête si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement de modèle d’incorporation interne dans la même ressource Azure OpenAI. | Yes | |
| environment | string | Nom de l’environnement de Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. | Yes | |
| in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation de données indexées. | No | |
| include_contexts | array | Propriétés incluses du contexte de sortie. S’il n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Nom de l’index de base de données Pinecone. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. S’il n’est pas spécifié, le système décide du nombre de requêtes à envoyer. | No | |
| strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Plus la rigueur est élevée, plus la précision est élevée mais la plus faible rappel de la réponse. | No | |
| top_n_documents | integer | Nombre maximal configuré de documents à fonctionnalités pour la requête configurée. | No |
pineconeFieldMappingOptions
Paramètres facultatifs pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Noms des champs d’index qui doivent être traités comme du contenu. | Yes | |
| content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| url_field | string | Nom du champ d’index à utiliser comme URL. | No |
onYourDataAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données.
Discriminateur pour onYourDataAuthenticationOptions
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataContextProperty
Propriété de contexte.
| Property | Value |
|---|---|
| Description | Propriété de contexte. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Types d’authentification pris en charge avec Azure OpenAI sur vos données.
| Property | Value |
|---|---|
| Description | Types d’authentification pris en charge avec Azure OpenAI sur vos données. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une clé API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clé API à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataConnectionStringAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une chaîne de connexion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Chaîne de connexion à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une paire de clés et d’ID de clé Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clé Elasticsearch à utiliser pour l’authentification. | No | |
| key_id | string | ID de clé Elasticsearch à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Les options d’authentification d’Azure OpenAI sur vos données lors de l’utilisation d’une clé API encodée Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Clé API encodée Elasticsearch à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataAccessTokenAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation du jeton d’accès.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Jeton d’accès à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par le système.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’une identité managée affectée par l’utilisateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | ID de ressource de l’identité managée affectée par l’utilisateur à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Options d’authentification pour Azure OpenAI sur vos données lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Types d’authentification pris en charge avec Azure OpenAI sur vos données. | Yes | |
| username | string | Nom d’utilisateur à utiliser pour l’authentification. | No |
onYourDataVectorizationSource
Représentation abstraite d’une source de vectorisation pour Azure OpenAI On Your Data avec recherche vectorielle.
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataVectorizationSourceType
Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
| Property | Value |
|---|---|
| Description | Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un appel de point de terminaison Azure OpenAI public pour les incorporations.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Nombre de dimensions dont les incorporations doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. |
No | |
| endpoint | string | Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées. Il doit être au format de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. |
No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataDeploymentNameVectorizationSource
Détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement de modèle d’incorporation interne dans la même ressource Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Spécifie le nom du déploiement de modèle à utiliser pour la vectorisation. Ce déploiement de modèle doit se trouver dans la même ressource Azure OpenAI, mais sur vos données utilise ce déploiement de modèle via un appel interne plutôt qu’un appel public, ce qui permet la recherche vectorielle même dans des réseaux privés. | No | |
| dimensions | integer | Nombre de dimensions dont les incorporations doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. |
No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataIntegratedVectorizationSource
Représente le vectoriseur intégré défini dans la ressource de recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataModelIdVectorizationSource
Détails d’une source de vectorisation, utilisée par Azure OpenAI sur vos données lors de l’application de la recherche vectorielle, basée sur un ID de modèle de service de recherche. Actuellement uniquement pris en charge par Elasticsearch®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Spécifie l’ID de modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. | No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles d’Azure OpenAI sur vos données peuvent être utilisées pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
azureChatExtensionsMessageContext
Représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse de saisie semi-automatique de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Tous les documents récupérés. | No | |
| citations | array | Résultat de récupération de la source de données, utilisé pour générer le message assistant dans la réponse. | No | |
| intent | string | Intention détectée de l’historique des conversations, utilisée pour passer au prochain tour pour transférer le contexte. | No |
citation
informations de citation pour un message de réponse de saisie semi-automatique de conversation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | ID de bloc de la citation. | No | |
| content | string | Contenu de la citation. | Yes | |
| filepath | string | Chemin d’accès du fichier de la citation. | No | |
| rerank_score | number | Score de reclassement du document récupéré. | No | |
| title | string | Titre de la citation. | No | |
| url | string | URL de la citation. | No |
retrievedDocument
Document récupéré.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | ID de bloc de la citation. | No | |
| content | string | Contenu de la citation. | Yes | |
| data_source_index | integer | Index de la source de données. | No | |
| filepath | string | Chemin d’accès du fichier de la citation. | No | |
| filter_reason | filterReason | Raison de filtrage du document récupéré. | No | |
| original_search_score | number | Score de recherche d’origine du document récupéré. | No | |
| rerank_score | number | Score de reclassement du document récupéré. | No | |
| search_queries | array | Requêtes de recherche utilisées pour récupérer le document. | No | |
| title | string | Titre de la citation. | No | |
| url | string | URL de la citation. | No |
filterReason
Raison de filtrage du document récupéré.
| Property | Value |
|---|---|
| Description | Raison de filtrage du document récupéré. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Fonction appelée par le modèle. | Yes | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. | No | |
| id | string | ID de l’appel de l’outil. | Yes | |
| type | toolCallType | Type de l’appel d’outil, dans ce cas function. |
Yes |
toolCallType
Type de l’appel d’outil, dans ce cas function.
| Property | Value |
|---|---|
| Description | Type de l’appel d’outil, dans ce cas function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message. | No | |
| tool_call_id | string | Appel de l’outil auquel ce message répond. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message. | No | |
| name | string | Contenu du message. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas function.Valeurs possibles : function |
No |
createChatCompletionResponse
Représente une réponse de saisie semi-automatique de conversation retournée par le modèle, en fonction de l’entrée fournie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix de saisie semi-automatique de conversation. Peut être plusieurs s’il n est supérieur à 1. |
Yes | |
| created | integer | Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. | Yes | |
| id | string | Identificateur unique de la saisie semi-automatique de conversation. | Yes | |
| model | string | Modèle utilisé pour la saisie semi-automatique de conversation. | Yes | |
| object | enum | Type d’objet, qui est toujours chat.completion.Valeurs possibles : chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Résultats du filtrage de contenu pour zéro ou plusieurs invites dans la requête. Dans une demande de diffusion en continu, les résultats des différentes invites peuvent arriver à des moments différents ou dans différentes commandes. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute. Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme. |
No | |
| usage | completionUsage | Statistiques d’utilisation pour la demande d’achèvement. | No |
createChatCompletionStreamResponse
Représente un segment diffusé en continu d’une réponse de saisie semi-automatique de conversation retournée par le modèle, en fonction de l’entrée fournie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments s’il n est supérieur à 1. |
Yes | |
| created | integer | Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. Chaque bloc a le même horodatage. | Yes | |
| id | string | Identificateur unique de la saisie semi-automatique de conversation. Chaque bloc a le même ID. | Yes | |
| model | string | Modèle à générer l’achèvement. | Yes | |
| object | enum | Type d’objet, qui est toujours chat.completion.chunk.Valeurs possibles : chat.completion.chunk |
Yes | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute. Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme. |
No |
chatCompletionStreamResponseDelta
Delta de saisie semi-automatique de conversation généré par les réponses de modèle diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message de bloc. | No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. | No | |
| refusal | string | Message de refus généré par le modèle. | No | |
| role | enum | Rôle de l’auteur de ce message. Valeurs possibles : system, , userassistant,tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. | No | |
| id | string | ID de l’appel de l’outil. | No | |
| index | integer | Yes | ||
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
No |
chatCompletionStreamOptions
Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide. Tous les autres blocs incluent également un usage champ, mais avec une valeur Null. |
No |
chatCompletionChoiceLogProbs
Journaliser les informations de probabilité pour le choix.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Liste des jetons de contenu de message avec des informations de probabilité de journal. | Yes | |
| refusal | array | Liste des jetons de refus de message avec des informations de probabilité de journal. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Liste d’entiers représentant la représentation UTF-8 octets du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations d’octets doivent être combinés pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation d’octets pour le jeton. |
Yes | |
| logprob | number | Probabilité de journal de ce jeton. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Liste des jetons les plus probables et de leur probabilité de journal, à cette position de jeton. Dans de rares cas, il peut y avoir moins de nombre de demandes top_logprobs retournées. |
Yes |
chatCompletionResponseMessage
Message d’achèvement de conversation généré par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. | No | |
| └─ data | string | Octets audio encodés en base64 générés par le modèle, au format spécifié dans la requête. |
No | |
| └─ expires_at | integer | Horodatage Unix (en secondes) pour lequel cette réponse audio ne sera plus accessible sur le serveur pour une utilisation dans les conversations à plusieurs tours. |
No | |
| └─ id | string | Identificateur unique pour cette réponse audio. | No | |
| └─ transcript | string | Transcription de l’audio généré par le modèle. | No | |
| content | string | Contenu du message. | Yes | |
| context | azureChatExtensionsMessageContext | Représentation des informations de contexte supplémentaires disponibles lorsque les extensions de conversation Azure OpenAI sont impliquées dans la génération d’une réponse de saisie semi-automatique de conversation correspondante. Ces informations de contexte sont renseignées uniquement lors de l’utilisation d’une requête Azure OpenAI configurée pour utiliser une extension correspondante. | No | |
| function_call | chatCompletionFunctionCall | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| refusal | string | Message de refus généré par le modèle. | Yes | |
| role | chatCompletionResponseMessageRole | Rôle de l’auteur du message de réponse. | Yes | |
| tool_calls | array | Les appels d’outil générés par le modèle, tels que les appels de fonction. | No |
chatCompletionResponseMessageRole
Rôle de l’auteur du message de réponse.
| Property | Value |
|---|---|
| Description | Rôle de l’auteur du message de réponse. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si les outils sont présents.
Ce composant peut être l’un des éléments suivants :
chatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Nom de la fonction à appeler. | No | |
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
Yes |
ParallelToolCalls
Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.
Aucune propriété définie pour ce composant.
PredictionContent
Contenu de sortie prédit statique, tel que le contenu d’un fichier texte régénéré.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Contenu qui doit être mis en correspondance lors de la génération d’une réponse de modèle. Si les jetons générés correspondent à ce contenu, l’ensemble de la réponse du modèle peut être retournée beaucoup plus rapidement. | Yes | |
| type | enum | Type du contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.Valeurs possibles : content |
Yes |
chatCompletionMessageToolCalls
Les appels d’outil générés par le modèle, tels que les appels de fonction.
Aucune propriété définie pour ce composant.
ChatCompletionModalities
Types de sortie que vous souhaitez générer pour ce modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :
["text"]
Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :
["text", "audio"]
Aucune propriété définie pour ce composant.
chatCompletionFunctionCall
Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | Yes | |
| name | string | Nom de la fonction à appeler. | Yes |
completionUsage
Statistiques d’utilisation pour la demande d’achèvement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons dans la saisie semi-automatique générée. | Yes | |
| completion_tokens_details | object | Répartition des jetons utilisés dans une saisie semi-automatique. | No | |
| └─ accepted_prediction_tokens | integer | Lors de l’utilisation des sorties prédites, nombre de jetons dans la prédiction qui apparaissent dans la saisie semi-automatique. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio générés par le modèle. | No | |
| └─ reasoning_tokens | integer | Jetons générés par le modèle pour le raisonnement. | No | |
| └─ rejected_prediction_tokens | integer | Lorsque vous utilisez des sorties prédites, nombre de jetons dans la prédiction qui n’apparaissent pas dans la saisie semi-automatique. Toutefois, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. | No | |
| prompt_tokens | integer | Nombre de jetons dans l’invite. | Yes | |
| prompt_tokens_details | object | Détails des jetons d’invite. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio présents dans l’invite. | No | |
| └─ cached_tokens | integer | Nombre de jetons d’invite mis en cache. | No | |
| total_tokens | integer | Nombre total de jetons utilisés dans la requête (invite + achèvement). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
Yes |
FunctionParameters
Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format.
Omettre parameters définit une fonction avec une liste de paramètres vide.
Aucune propriété définie pour ce composant.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| parameters | FunctionParameters | Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON.
Consultez le guide pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format. Omettre parameters définit une fonction avec une liste de paramètres vide. |
No | |
| strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le parameters champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini : textValeurs possibles : text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini : json_objectValeurs possibles : json_object |
Yes |
ResponseFormatJsonSchemaSchema
Schéma pour le format de réponse, décrit en tant qu’objet json Schema.
Aucune propriété définie pour ce composant.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. | No | |
| └─ name | string | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | Schéma pour le format de réponse, décrit en tant qu’objet json Schema. | No | |
| └─ strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. |
No | False |
| type | enum | Type de format de réponse défini : json_schemaValeurs possibles : json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Fichier audio à traduire. | Yes | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
audioResponse
Réponse de traduction ou de transcription lorsque response_format a été json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texte traduit ou transcrit. | Yes |
audioVerboseResponse
Réponse de traduction ou de transcription lorsque response_format a été verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Type de tâche audio. | No | |
| text | string | Texte traduit ou transcrit. | Yes | |
| words | array | No |
audioResponseFormat
Définit le format de la sortie.
| Property | Value |
|---|---|
| Description | Définit le format de la sortie. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Objet de fichier audio à transcrire. | Yes | |
| language | string | Langue de l’audio d’entrée. La fourniture du langage d’entrée au format ISO-639-1 améliore la précision et la latence. | No | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
| timestamp_granularities[] | array | Granularités d’horodatage à remplir pour cette transcription.
response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
audioSegment
Segment de transcription ou de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilité moyenne du journal. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Décalage de fin de segment. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Probabilité de « aucun discours ». | No | |
| seek | number | Décalage du segment. | No | |
| start | number | Décalage de début du segment. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Jetons du texte. | No |
audioWord
Transcription ou mot de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Décalage de fin word. | No | |
| start | number | Décalage de début de Word. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texte pour lequel synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| response_format | enum | Format dans lequel synthétiser l’audio. Valeurs possibles : mp3, , opusaac, flac, wavpcm |
No | |
| speed | number | Vitesse de l’audio synthétisé. Sélectionnez une valeur à 0.25partir de 4.0 .
1.0 est la valeur par défaut. |
No | 1.0 |
| voice | enum | Voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, , echofable, onyx, novashimmer |
Yes |
imageQuality
Qualité de l’image qui sera générée.
| Property | Value |
|---|---|
| Description | Qualité de l’image qui sera générée. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Format dans lequel les images générées sont retournées.
| Property | Value |
|---|---|
| Description | Format dans lequel les images générées sont retournées. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série.
| Property | Value |
|---|---|
| Description | Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
Taille des images générées.
| Property | Value |
|---|---|
| Description | Taille des images générées. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Style des images générées. Prise en charge uniquement pour dall-e-3.
| Property | Value |
|---|---|
| Description | Style des images générées. Prise en charge uniquement pour dall-e-3. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1.
| Property | Value |
|---|---|
| Description | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est uniquement pris en charge pour les modèles de série gpt-image-1. | No | auto |
| n | integer | Nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. | No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est pris en charge uniquement pour les modèles de série gpt-image-1 avec le format de sortie jpeg. | No | 100 |
| output_format | imagesOutputFormat | Format de fichier dans lequel les images générées sont retournées. Uniquement pris en charge pour les modèles de série gpt-image-1. | No | png |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour les modèles de série gpt-image-1 et 4 000 caractères pour dall-e-3 | Yes | |
| quality | imageQuality | Qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. Prise en charge uniquement pour dall-e-3. | No | url |
| size | imageSize | Taille des images générées. | No | auto |
| style | imageStyle | Style des images générées. Prise en charge uniquement pour dall-e-3. | No | vivid |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | chaîne ou tableau | Image à modifier. Doit être un fichier image pris en charge ou un tableau d’images. Chaque image doit être un fichier png ou jpg inférieur à 25 Mo. | Yes | |
| mask | string | Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être modifiée. S’il existe plusieurs images fournies, le masque est appliqué à la première image. Doit être un fichier PNG valide, inférieur à 4 Mo et avoir les mêmes dimensions que l’image. | No | |
| n | integer | Nombre d’images à générer. | No | 1 |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères. | Yes | |
| quality | imageQuality | Qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Format dans lequel les images générées sont retournées. | No | url |
| size | imageSize | Taille des images générées. | No | auto |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Horodatage unix lors de la création de l’opération. | Yes | |
| data | array | Données de résultat de l’opération, en cas de réussite | Yes | |
| usage | imageGenerationsUsage | Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1. | No |
imageResult
Url de l’image ou image encodée en cas de réussite et erreur dans le cas contraire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | Image encodée en base64 | No | |
| content_filter_results | dalleContentFilterResults | Informations sur les résultats du filtrage de contenu. | No | |
| prompt_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexualité, violence, self_harm), s’il a été détecté, ainsi que le niveau de gravité (very_low, faible, moyen, à grande échelle qui détermine l’intensité et le niveau de risque du contenu dangereux) et s’il a été filtré ou non. Informations sur le contenu de jailbreak et la profanité, s’il a été détecté, et s’il a été filtré ou non. Et des informations sur la liste des blocs client, si elle a été filtrée et son ID. | No | |
| revised_prompt | string | Invite utilisée pour générer l’image, s’il y a eu une révision de l’invite. | No | |
| url | string | URL de l’image. | No |
imageGenerationsUsage
Représente les détails d’utilisation des jetons pour les demandes de génération d’images. Uniquement pour les modèles de série gpt-image-1.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Nombre de jetons d’entrée. | No | |
| input_tokens_details | object | Répartition détaillée des jetons d’entrée. | No | |
| └─ image_tokens | integer | Nombre de jetons d’image. | No | |
| └─ text_tokens | integer | Nombre de jetons de texte. | No | |
| output_tokens | integer | Nombre de jetons de sortie. | No | |
| total_tokens | integer | Nombre total de jetons utilisés. | No |
line
Objet de ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Tableau d’étendues qui représentent les objets détectés et ses informations de cadre englobant. | Yes | |
| text | string | Yes |
span
Objet span qui représente un objet détecté et ses informations de cadre englobant.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | Longueur de l’étendue en caractères, mesurée en points de code Unicode. | Yes | |
| offset | integer | Décalage de caractère dans le texte où commence l’étendue. Ce décalage est défini comme la position du premier caractère de l’étendue, en comptant à partir du début du texte en tant que points de code Unicode. | Yes | |
| polygon | array | Tableau d’objets représentant des points dans le polygone qui entoure l’objet détecté. | Yes | |
| text | string | Contenu texte de l’étendue qui représente l’objet détecté. | Yes |
runCompletionUsage
Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, , queuedetc.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons d’achèvement utilisés au cours de l’exécution. | Yes | |
| prompt_tokens | integer | Nombre de jetons d’invite utilisés au cours de l’exécution. | Yes | |
| total_tokens | integer | Nombre total de jetons utilisés (invite + achèvement). | Yes |
runStepCompletionUsage
Statistiques d’utilisation liées à l’étape d’exécution. Cette valeur sera null pendant que l’état de l’étape d’exécution est in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons d’achèvement utilisés au cours de l’étape d’exécution. | Yes | |
| prompt_tokens | integer | Nombre de jetons d’invite utilisés au cours de l’étape d’exécution. | Yes | |
| total_tokens | integer | Nombre total de jetons utilisés (invite + achèvement). | Yes |
assistantsApiResponseFormatOption
Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.
Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte.
Ce composant peut être l’un des éléments suivants :
assistantsApiResponseFormat
Objet décrivant la sortie attendue du modèle. Si json_object seul function le type tools est autorisé à être transmis à l’exécution. Si text le modèle peut retourner du texte ou une valeur nécessaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Doit être l’un des text ou json_object. |
No | text |
type Enum : AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Représente un assistant modèle qui peut appeler le modèle et utiliser des outils.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel l’assistant a été créé. | Yes | |
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| instructions | string | Instructions système que l’Assistant utilise. La longueur maximale est de 256 000 caractères. |
Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
Yes | |
| model | string | ID du modèle à utiliser. | Yes | |
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
Yes | |
| object | string | Type d’objet, qui est toujours assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_searchou function. |
Yes | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
énumération d’objet : AssistantObjectType
| Value | Description |
|---|---|
| assistant | Type d’objet, qui est toujours assistant |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système que l’Assistant utilise. La longueur maximale est de 256 000 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | Yes | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| └─ vector_stores | array | Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Instructions système que l’Assistant utilise. La longueur maximale est de 32768 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | No | ||
| name | string | Nom de l’assistant. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Remplace la liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Remplace le magasin vectoriel attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Liste des outils activés sur l’Assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrievalou function. |
No | [] |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum : DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Type d’outil défini : code_interpreter |
Yes |
type Enum : assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Remplace l’outil de recherche de fichiers. | No | |
| └─ max_num_results | integer | Nombre maximal de résultats que l’outil de recherche de fichiers doit générer. La valeur par défaut est 20 pour les modèles gpt-4* et 5 pour gpt-3.5-turbo. Ce nombre doit être compris entre 1 et 50 inclus. Notez que l’outil de recherche de fichiers peut générer moins de max_num_results résultats. |
No | |
| type | string | Type d’outil défini : file_search |
Yes |
type Enum : assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Type d’outil défini : file_search |
Yes |
type Enum : assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Définition de la fonction. | Yes | |
| └─ description | string | Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez le guide/ pour obtenir des exemples et la référence de schéma JSON pour obtenir de la documentation sur le format. | No | |
| type | string | Type d’outil défini : function |
Yes |
type Enum : assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Nombre de messages les plus récents du thread lors de la construction du contexte de l’exécution. | No | |
| type | string | Stratégie de troncation à utiliser pour le thread. La valeur par défaut est auto. Si la valeur est définie last_messages, le thread est tronqué sur les n messages les plus récents dans le thread. Lorsque la valeur est définieauto, les messages au milieu du thread sont supprimés pour ajuster la longueur du contexte du modèle. max_prompt_tokens |
Yes |
type Enum : TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Ce composant peut être l’un des éléments suivants :
assistantsNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler un outil spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | Nom de la fonction à appeler. | No | |
| type | string | Type de l’outil. Si le type est function, le nom de la fonction doit être défini |
Yes |
type Enum : AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Représente une exécution sur un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’Assistant utilisé pour l’exécution de cette exécution. | Yes | |
| cancelled_at | integer | Horodatage Unix (en secondes) pour l’annulation de l’exécution. | Yes | |
| completed_at | integer | Horodatage Unix (en secondes) pour la fin de l’exécution. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) pour la création de l’exécution. | Yes | |
| expires_at | integer | Horodatage Unix (en secondes) pour l’expiration de l’exécution. | Yes | |
| failed_at | integer | Horodatage Unix (en secondes) pour lequel l’exécution a échoué. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| incomplete_details | object | Détails sur la raison pour laquelle l’exécution est incomplète.
null Sera si l’exécution n’est pas incomplète. |
Yes | |
| └─ reason | string | La raison pour laquelle l’exécution est incomplète. Cela pointe vers quelle limite de jeton spécifique a été atteinte au cours de l’exécution. | No | |
| instructions | string | Instructions que l’Assistant a utilisées pour cette exécution. | Yes | |
| last_error | object | Dernière erreur associée à cette exécution.
null Sera en l’absence d’erreurs. |
Yes | |
| └─ code | string | L’un d’entre server_error eux ou rate_limit_exceeded. |
No | |
| └─ message | string | Description lisible par l’homme de l’erreur. | No | |
| max_completion_tokens | integer | Nombre maximal de jetons d’achèvement spécifiés pour avoir été utilisés au cours de l’exécution. |
Yes | |
| max_prompt_tokens | integer | Nombre maximal de jetons d’invite spécifiés pour avoir été utilisés au cours de l’exécution. |
Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
Yes | |
| model | string | Modèle utilisé par l’Assistant pour cette exécution. | Yes | |
| object | string | Type d’objet, qui est toujours thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| required_action | object | Détails sur l’action requise pour poursuivre l’exécution.
null Sera si aucune action n’est requise. |
Yes | |
| └─ submit_tool_outputs | object | Détails sur les sorties de l’outil nécessaires à cette exécution pour continuer. | No | |
| └─ tool_calls | array | Liste des appels d’outils pertinents. | No | |
| └─ type | enum | Pour l’instant, c’est toujours submit_tool_outputs.Valeurs possibles : submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
Yes | |
| started_at | integer | Horodatage Unix (en secondes) pour le démarrage de l’exécution. | Yes | |
| status | string | État de l’exécution, qui peut être queuedsoit , , in_progressrequires_actioncancelling, cancelled, , failed, completedou expired. |
Yes | |
| temperature | number | Température d’échantillonnage utilisée pour cette exécution. S’il n’est pas défini, la valeur par défaut est 1. | No | |
| thread_id | string | ID des threads qui ont été exécutés dans le cadre de cette exécution. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Yes | |
| tools | array | Liste des outils utilisés par l’Assistant pour cette exécution. | Yes | [] |
| top_p | number | Valeur d’échantillonnage du noyau utilisée pour cette exécution. S’il n’est pas défini, la valeur par défaut est 1. | No | |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. | Yes | |
| usage | runCompletionUsage | Statistiques d’utilisation relatives à l’exécution. Cette valeur sera null si l’exécution n’est pas dans un état terminal (c’est-à-dire in_progress, , queuedetc.). |
Yes |
enum d’objet : runObjectType
| Value | Description |
|---|---|
| thread.run | Type d’objet d’exécution qui est toujours thread.run |
status Enum : RunObjectStatus
| Value | Description |
|---|---|
| queued | État mis en file d’attente |
| in_progress | État in_progress |
| requires_action | État required_action |
| cancelling | État d’annulation |
| cancelled | État annulé |
| failed | État d’échec |
| completed | État terminé |
| expired | État expiré |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions pour l’exécution. Cela est utile pour modifier le comportement par exécution sans remplacer d’autres instructions. | No | |
| additional_messages | array | Ajoute des messages supplémentaires au thread avant de créer l’exécution. | No | |
| assistant_id | string | ID de l’Assistant à utiliser pour exécuter cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| max_prompt_tokens | integer | Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tools | array | Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message. |
No | |
| tool_outputs | array | Liste des outils pour lesquels les sorties sont envoyées. | Yes |
runToolCallObject
Objets d’appel d’outil
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Définition de la fonction. | Yes | |
| └─ arguments | string | Arguments que le modèle s’attend à ce que vous transmettiez à la fonction. | No | |
| └─ name | string | Nom de la fonction. | No | |
| id | string | ID de l’appel de l’outil. Cet ID doit être référencé lorsque vous envoyez les sorties de l’outil à l’aide des sorties de l’outil d’envoi pour exécuter endpointendpoint. | Yes | |
| type | string | Le type d’outil appelle la sortie. Pour l’instant, c’est toujours function. |
Yes |
type Enum : RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’Assistant à utiliser pour exécuter cette exécution. | Yes | |
| instructions | string | Remplacez le message système par défaut de l’Assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Nombre maximal de jetons d’achèvement qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’achèvement spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’achèvement spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| max_prompt_tokens | integer | Nombre maximal de jetons d’invite qui peuvent être utilisés au cours de l’exécution. L’exécution fait un meilleur effort pour utiliser uniquement le nombre de jetons d’invite spécifiés, entre plusieurs tours de l’exécution. Si l’exécution dépasse le nombre de jetons d’invite spécifiés, l’exécution se termine par l’état incomplete. Pour plus d’informations, voir incomplete_details . |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| model | string | ID des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle remplace le modèle associé à l’Assistant. Si ce n’est pas le cas, le modèle associé à l’Assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Spécifie le format que le modèle doit générer. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Paramètre pour { "type": "json_schema", "json_schema": {...} } activer les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Paramètre permettant d’activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même json par le biais d’un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé ou que la conversation a dépassé max_tokens la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, retourne un flux d’événements qui se produisent lors de l’exécution en tant qu’événements envoyés par le serveur, arrêtant lorsque l’exécution entre dans un état terminal avec un data: [DONE] message. |
No | |
| stream_options | chatCompletionStreamOptions | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outils et génère plutôt un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécification d’un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tool_resources | object | Ensemble de ressources utilisées par les outils de l’Assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | ID du magasin de vecteurs attaché à cet Assistant. Il peut y avoir un maximum de 1 magasin vectoriel attaché à l’assistant. |
No | |
| tools | array | Remplacez les outils que l’Assistant peut utiliser pour cette exécution. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cette ou température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôle la façon dont un thread sera tronqué avant l’exécution. Utilisez cette option pour contrôler la fenêtre de contexte initiale de l’exécution. | No |
threadObject
Représente un thread qui contient des messages.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le thread a été créé. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
Yes | |
| object | string | Type d’objet, qui est toujours thread. |
Yes | |
| tool_resources | object | Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No |
énumération d’objet : ThreadObjectType
| Value | Description |
|---|---|
| thread | Type d’objet thread qui est toujours thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Liste des messages avec utilisant lequel démarrer le thread. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| tool_resources | object | Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No | |
| └─ vector_stores | array | Assistance pour créer un magasin de vecteurs avec file_ids et l’attacher à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| tool_resources | object | Ensemble de ressources disponibles pour les outils de l’Assistant dans ce thread. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’ID de fichier, tandis que l’outil file_search nécessite une liste d’ID de magasin de vecteurs. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Liste des ID de fichier mis à la disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Magasin de vecteurs attaché à ce thread. Il peut y avoir un maximum de 1 magasin de vecteurs attaché au thread. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum : DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | État de réponse du thread de suppression, qui est thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Représente un message au sein d’un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Le cas échéant, l’ID de l’assistant qui a créé ce message. | Yes | |
| attachments | array | Liste des fichiers joints au message et outils auxquels ils ont été ajoutés. | Yes | |
| completed_at | integer | Horodatage Unix (en secondes) pour la fin du message. | Yes | |
| content | array | Contenu du message dans le tableau de texte et/ou d’images. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) pour lequel le message a été créé. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| incomplete_at | integer | Horodatage Unix (en secondes) pour lequel le message a été marqué comme incomplet. | Yes | |
| incomplete_details | object | Sur un message incomplet, détails sur la raison pour laquelle le message est incomplet. | Yes | |
| └─ reason | string | La raison pour laquelle le message est incomplet. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
Yes | |
| object | string | Type d’objet, qui est toujours thread.message. |
Yes | |
| role | string | Entité qui a produit le message. L’un d’entre user eux ou assistant. |
Yes | |
| run_id | string | Le cas échéant, l’ID de l’exécution associée à la création de ce message. | Yes | |
| status | string | État du message, qui peut être soit in_progress, incompleteou completed. |
Yes | |
| thread_id | string | ID des threads auquel ce message appartient. | Yes |
énumération d’objet : MessageObjectType
| Value | Description |
|---|---|
| thread.message | Type d’objet message qui est thread.message |
status Enum : MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
enum de rôle : MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Delta contenant les champs qui ont changé sur le message. | Yes | |
| └─ content | array | Contenu du message dans le tableau de texte et/ou d’images. | No | |
| └─ role | string | Entité qui a produit le message. L’un d’entre user eux ou assistant. |
No | |
| id | string | Identificateur du message, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | string | Type d’objet, qui est toujours thread.message.delta. |
Yes |
object Enum : MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Liste des fichiers joints au message et outils auxquels ils doivent être ajoutés. | No | |
| content | string | Contenu du message. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| role | string | Rôle de l’entité qui crée le message. Les valeurs autorisées sont les suivantes : - user: indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter les messages générés par l’utilisateur.- assistant: indique que le message est généré par l’Assistant. Utilisez cette valeur pour insérer des messages de l’Assistant dans la conversation. |
Yes |
role Enum : CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum : DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | État de l’objet de réponse de message de suppression |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | ID de fichier de l’image dans le contenu du message. | No | |
| type | string | Toujours image_file. |
Yes |
type Enum : MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Type de fichier image de contenu du message |
messageContentTextObject
Contenu texte qui fait partie d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | Données qui composent le texte. | No | |
| type | string | Toujours text. |
Yes |
type Enum : messageContentTextObjectType
| Value | Description |
|---|---|
| text | Type d’objet texte du contenu du message |
messageContentTextAnnotationsFileCitationObject
Citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « récupération » pour rechercher des fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | ID du fichier spécifique à partir duquel provient la citation. | No | |
| start_index | integer | Yes | ||
| text | string | Texte dans le contenu du message qui doit être remplacé. | Yes | |
| type | string | Toujours file_citation. |
Yes |
type Enum : FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Type d’objet citation de fichier |
messageContentTextAnnotationsFilePathObject
URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | ID du fichier généré. | No | |
| start_index | integer | Yes | ||
| text | string | Texte dans le contenu du message qui doit être remplacé. | Yes | |
| type | string | Toujours file_path. |
Yes |
type Enum : FilePathObjectType
| Value | Description |
|---|---|
| file_path | Type d’objet chemin d’accès au fichier |
messageDeltaContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | ID de fichier de l’image dans le contenu du message. | No | |
| index | integer | Index du composant de contenu dans le message. | Yes | |
| type | string | Toujours image_file. |
Yes |
type Enum : MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Contenu texte qui fait partie d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Index du composant de contenu dans le message. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | Données qui composent le texte. | No | |
| type | string | Toujours text. |
Yes |
type Enum : MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’Assistant ou au message. Généré lorsque l’Assistant utilise l’outil « file_search » pour rechercher des fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | ID du fichier spécifique à partir duquel provient la citation. | No | |
| └─ quote | string | Guillemet spécifique dans le fichier. | No | |
| index | integer | Index de l’annotation dans la partie de contenu de texte. | Yes | |
| start_index | integer | No | ||
| text | string | Texte dans le contenu du message qui doit être remplacé. | No | |
| type | string | Toujours file_citation. |
Yes |
type Enum : MessageDeltaContentTextAnnotationsFileCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
URL du fichier généré lorsque l’Assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | ID du fichier généré. | No | |
| index | integer | Index de l’annotation dans la partie de contenu de texte. | Yes | |
| start_index | integer | No | ||
| text | string | Texte dans le contenu du message qui doit être remplacé. | No | |
| type | string | Toujours file_path. |
Yes |
type Enum : MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Représente une étape dans l’exécution d’une exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | ID de l’Assistant associé à l’étape d’exécution. | Yes | |
| cancelled_at | integer | Horodatage Unix (en secondes) pour l’annulation de l’étape d’exécution. | Yes | |
| completed_at | integer | Horodatage Unix (en secondes) pour l’exécution de l’étape d’exécution. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) pour la création de l’étape d’exécution. | Yes | |
| expired_at | integer | Horodatage Unix (en secondes) pour l’expiration de l’étape d’exécution. Une étape est considérée comme expirée si l’exécution parente a expiré. | Yes | |
| failed_at | integer | Horodatage Unix (en secondes) pour lequel l’étape d’exécution a échoué. | Yes | |
| id | string | Identificateur de l’étape d’exécution, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_error | object | Dernière erreur associée à cette étape d’exécution.
null Sera en l’absence d’erreurs. |
Yes | |
| └─ code | string | L’un d’entre server_error eux ou rate_limit_exceeded. |
No | |
| └─ message | string | Description lisible par l’homme de l’erreur. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
Yes | |
| object | string | Type d’objet, qui est toujours assistant.run.step. |
Yes | |
| run_id | string | ID de l’exécution dont fait partie cette étape d’exécution. | Yes | |
| status | string | État de l’exécution, qui peut être in_progresssoit , , cancelledfailed, , completedou expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Détails de l’étape d’exécution. | Yes | |
| thread_id | string | ID des threads qui ont été exécutés. | Yes | |
| type | string | Type d’étape d’exécution, qui peut être soit message_creation ou tool_calls. |
Yes |
object Enum : RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Type d’objet, qui est toujours assistant.run.step |
type Enum : RunStepObjectType
| Value | Description |
|---|---|
| message_creation | Étape d’exécution message_creation |
| tool_calls | Étape d’exécution tool_calls |
status Enum : RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | État de l’exécution in_progress |
| cancelled | État de l’exécution annulée |
| failed | État de l’exécution annulée |
| completed | État de l’exécution annulée |
| expired | État de l’exécution annulée |
runStepDeltaObject
Représente un delta d’étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Delta contenant les champs qui ont changé lors de l’étape d’exécution. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Détails de l’étape d’exécution. | No | |
| id | string | Identificateur de l’étape d’exécution, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | string | Type d’objet, qui est toujours thread.run.step.delta. |
Yes |
object Enum : RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | ID du message créé par cette étape d’exécution. | No | |
| type | string | Toujours message_creation. |
Yes |
type Enum : RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Détails de la création du message à l’étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | ID du message créé par cette étape d’exécution. | No | |
| type | string | Toujours message_creation. |
Yes |
type Enum : RunStepDeltaStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Détails de l’appel de l’outil.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Un tableau d’outils appelle l’étape d’exécution. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreterou retrievalfunction. |
Yes | |
| type | string | Toujours tool_calls. |
Yes |
type Enum : RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Détails de l’appel de l’outil.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Un tableau d’outils appelle l’étape d’exécution. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreterou file_searchfunction. |
No | |
| type | string | Toujours tool_calls. |
Yes |
type Enum : RunStepDeltaStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Les détails de l’outil Interpréteur de code appellent l’étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Définition d’appel de l’outil Interpréteur de code. | Yes | |
| └─ input | string | Entrée de l’appel de l’outil Interpréteur de code. | No | |
| └─ outputs | array | Sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. |
No | |
| id | string | ID de l’appel de l’outil. | Yes | |
| type | string | Type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. |
Yes |
type Enum : RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Les détails de l’outil Interpréteur de code appellent l’étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Définition d’appel de l’outil Interpréteur de code. | No | |
| └─ input | string | Entrée de l’appel de l’outil Interpréteur de code. | No | |
| └─ outputs | array | Sorties de l’appel de l’outil Interpréteur de code. L’interpréteur de code peut générer un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun d’eux est représenté par un type d’objet différent. |
No | |
| id | string | ID de l’appel de l’outil. | No | |
| index | integer | Index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Type d’appel d’outil. Cela va toujours être code_interpreter pour ce type d’appel d’outil. |
Yes |
type Enum : RunStepDeltaStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Sortie de texte de l’appel de l’outil Interpréteur de code. | Yes | |
| type | string | Toujours logs. |
Yes |
type Enum : RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Sortie de texte de l’appel de l’outil Interpréteur de code dans le cadre d’une étape d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | Index de la sortie dans le tableau de sorties. | Yes | |
| logs | string | Sortie de texte de l’appel de l’outil Interpréteur de code. | No | |
| type | string | Toujours logs. |
Yes |
type Enum : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | ID de fichier de l’image. | No | |
| type | string | Toujours image. |
Yes |
type Enum : RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | ID de fichier de l’image. | No | |
| index | integer | Index de la sortie dans le tableau de sorties. | Yes | |
| type | string | Toujours image. |
Yes |
type Enum : RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Pour l’instant, il s’agit toujours d’un objet vide. | Yes | |
| └─ results | array | Résultats de la recherche de fichiers. | No | |
| id | string | ID de l’objet d’appel d’outil. | Yes | |
| type | string | Type d’appel d’outil. Cela va toujours être file_search pour ce type d’appel d’outil. |
Yes |
type Enum : RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Instance de résultat de la recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du résultat trouvé. Le contenu est inclus uniquement s’il est demandé via le paramètre de requête Include. | No | |
| file_id | string | ID du fichier dans lequel le résultat a été trouvé. | Yes | |
| file_name | string | Nom du fichier dans lequel le résultat a été trouvé. | Yes | |
| score | number | Score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante compris entre 0 et 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Pour l’instant, il s’agit toujours d’un objet vide. | Yes | |
| id | string | ID de l’objet d’appel d’outil. | No | |
| index | integer | Index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Type d’appel d’outil. Cela va toujours être retrieval pour ce type d’appel d’outil. |
Yes |
type Enum : RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Définition de la fonction appelée. | Yes | |
| └─ arguments | string | Arguments passés à la fonction. | No | |
| └─ name | string | Nom de la fonction. | No | |
| └─ output | string | Sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. |
No | |
| id | string | ID de l’objet d’appel d’outil. | Yes | |
| type | string | Type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. |
Yes |
type Enum : RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Définition de la fonction appelée. | No | |
| └─ arguments | string | Arguments passés à la fonction. | No | |
| └─ name | string | Nom de la fonction. | No | |
| └─ output | string | Sortie de la fonction. Cela sera null si les sorties n’ont pas encore été envoyées. |
No | |
| id | string | ID de l’objet d’appel d’outil. | No | |
| index | integer | Index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Type d’appel d’outil. Cela va toujours être function pour ce type d’appel d’outil. |
Yes |
type Enum : RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
Stratégie d’expiration d’un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at. |
Yes | |
| days | integer | Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. | Yes |
ancre Enum : VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | Horodatage d’ancre après lequel la stratégie d’expiration s’applique. |
vectorStoreObject
Un magasin vectoriel est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le magasin de vecteurs a été créé. | Yes | |
| expires_after | vectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| expires_at | integer | Horodatage Unix (en secondes) pour l’expiration du magasin vectoriel. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Nombre de fichiers annulés. | No | |
| └─ completed | integer | Nombre de fichiers qui ont été traités avec succès. | No | |
| └─ failed | integer | Nombre de fichiers qui n’ont pas pu être traité. | No | |
| └─ in_progress | integer | Nombre de fichiers en cours de traitement. | No | |
| └─ total | integer | Nombre total de fichiers. | No | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_active_at | integer | Horodatage Unix (en secondes) pour lequel le magasin vectoriel a été actif pour la dernière fois. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
Yes | |
| name | string | Nom du magasin vectoriel. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.Valeurs possibles : vector_store |
Yes | |
| status | string | État du magasin vectoriel, qui peut être soit expired, in_progresssoit completed. L’état indique completed que le magasin vectoriel est prêt à être utilisé. |
Yes | |
| usage_bytes | integer | Nombre total d’octets utilisés par les fichiers dans le magasin vectoriel. | Yes |
status Enum : VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. Applicable uniquement s’il file_ids n’est pas vide. |
No | |
| expires_after | vectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| file_ids | array | Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent être d’un maximum de 64 caractères et les valeurs peuvent comporter un maximum de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum : DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | État de l’objet réponse du magasin de vecteurs de suppression |
vectorStoreFileObject
Liste de fichiers attachés à un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. Applicable uniquement s’il file_ids n’est pas vide. |
No | |
| created_at | integer | Horodatage Unix (en secondes) pour lequel le fichier de magasin de vecteurs a été créé. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_error | object | Dernière erreur associée à ce fichier de magasin de vecteurs.
null Sera en l’absence d’erreurs. |
Yes | |
| └─ code | string | Un ou server_errorinvalid_fileunsupported_file. |
No | |
| └─ message | string | Description lisible par l’homme de l’erreur. | No | |
| object | string | Type d’objet, qui est toujours vector_store.file. |
Yes | |
| status | string | État du fichier de magasin de vecteurs, qui peut être in_progresssoit , completed, cancelledou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé. |
Yes | |
| usage_bytes | integer | Utilisation totale du magasin de vecteurs en octets. Notez que cela peut être différent de la taille du fichier d’origine. | Yes | |
| vector_store_id | string | ID du magasin de vecteurs auquel le fichier est attaché. | Yes |
object Enum : VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
status Enum : VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Cette opération est retournée lorsque la stratégie de segmentation est inconnue. En règle générale, cela est dû au fait que le fichier a été indexé avant l’introduction du chunking_strategy concept dans l’API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Toujours other. |
Yes |
type Enum : OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Toujours static. |
Yes |
type Enum : StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Nombre de jetons qui se chevauchent entre des blocs. La valeur par défaut est 400.Notez que le chevauchement ne doit pas dépasser la moitié de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Nombre maximal de jetons dans chaque bloc. La valeur par défaut est 800. La valeur minimale est 100 et la valeur maximale est 4096. |
Yes |
autoChunkingStrategyRequestParam
Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Toujours auto.Valeurs possibles : auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Toujours static.Valeurs possibles : static |
Yes |
chunkingStrategyRequestParam
Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie.
Ce composant peut être l’un des éléments suivants :
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_id | string | ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
object Enum : DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Lot de fichiers attachés à un magasin vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le lot de fichiers de magasin de vecteurs a été créé. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Nombre de fichiers annulés. | No | |
| └─ completed | integer | Nombre de fichiers qui ont été traités. | No | |
| └─ failed | integer | Nombre de fichiers qui n’ont pas pu être traité. | No | |
| └─ in_progress | integer | Nombre de fichiers en cours de traitement. | No | |
| └─ total | integer | Nombre total de fichiers. | No | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | string | Type d’objet, qui est toujours vector_store.file_batch. |
Yes | |
| status | string | État du lot de fichiers de magasin de vecteurs, qui peut être in_progresssoit , completedsoit cancelledfailed. |
Yes | |
| vector_store_id | string | ID du magasin de vecteurs auquel le fichier est attaché. | Yes |
object Enum : VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
status Enum : VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_ids | array | Liste des ID de fichier que le magasin vectoriel doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
assistantStreamEvent
Représente un événement émis lors de la diffusion en continu d’une exécution.
Chaque événement d’un flux d’événements envoyés par un serveur a une propriété et event une data propriété :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Nous émettons des événements chaque fois qu’un nouvel objet est créé, passe à un nouvel état ou est diffusé en continu dans des parties (deltas). Par exemple, nous émettons thread.run.created lorsqu’une nouvelle exécution est créée, thread.run.completed lorsqu’une exécution se termine, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une exécution, nous émettons un thread.message.created event, un thread.message.in_progress événement, de nombreux thread.message.delta événements et enfin un thread.message.completed événement.
Nous pouvons ajouter des événements supplémentaires au fil du temps. Nous vous recommandons donc de gérer correctement les événements inconnus dans votre code.
Ce composant peut être l’un des éléments suivants :
threadStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.created
Se produit lorsqu’un thread est créé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Représente un thread qui contient des messages. | Yes | |
| event | string | Yes |
Data: threadObject
Enum d’événement : ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | Événement créé par le thread |
runStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.run.created
Se produit lorsqu’une nouvelle exécution est créée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Se produit lorsqu’une exécution passe à un queued état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Se produit lorsqu’une exécution passe à un in_progress état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Se produit lorsqu’une exécution passe à un requires_action état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Se produit lorsqu’une exécution est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Se produit lorsqu’une exécution échoue.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Se produit lorsqu’une exécution passe à un cancelling état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Se produit lorsqu’une exécution est annulée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Enum d’événement : RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Se produit lorsqu’une exécution expire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Énumération d’événements : RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.run.step.created
Se produit lorsqu’une étape d’exécution est créée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une exécution. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enum d’événement : RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Se produit lorsqu’une étape d’exécution passe à un in_progress état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une exécution. |
Yes | |
| event | string | Yes |
Data: runStepObject
Énumération d’événements : RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Se produit lorsque des parties d’une étape d’exécution sont diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Représente un delta d’étape d’exécution, c’est-à-dire les champs modifiés d’une étape d’exécution pendant la diffusion en continu. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Enum d’événement : RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Se produit lorsqu’une étape d’exécution est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une exécution. |
Yes | |
| event | string | Yes |
Data: runStepObject
Énumération d’événements : RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Se produit lorsqu’une étape d’exécution échoue.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une exécution. |
Yes | |
| event | string | Yes |
Data: runStepObject
Énumération d’événements : RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Se produit lorsqu’une étape d’exécution est annulée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une exécution. |
Yes | |
| event | string | Yes |
Data: runStepObject
Enum d’événement : RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Se produit lorsqu’une étape d’exécution expire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une exécution. |
Yes | |
| event | string | Yes |
Data: runStepObject
Énumération d’événements : RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Ce composant peut être l’un des éléments suivants :
thread.message.created
Se produit lorsqu’un message est créé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Énumération d’événements : MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Se produit lorsqu’un message passe à un in_progress état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Énumération d’événements : MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Se produit lorsque des parties d’un message sont diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Représente un delta de message, c’est-à-dire les champs modifiés d’un message pendant la diffusion en continu. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Énumération d’événements : MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Se produit lorsqu’un message est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Énumération d’événements : MessageStreamEventCompleted
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Se produit lorsqu’un message se termine avant sa fin.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Énumération d’événements : MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Ce composant peut être l’un des éléments suivants :
Click
Action de clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indique le bouton de la souris enfoncé pendant le clic. Un des left, , right, wheel, backou forward.Valeurs possibles : left, , rightwheel, back,forward |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours définie sur click.Valeurs possibles : click |
Yes | |
| x | integer | Coordonnée x où le clic s’est produit. |
Yes | |
| y | integer | Coordonnée y où le clic s’est produit. |
Yes |
CodeInterpreterFileOutput
Sortie d’un appel d’outil d’interpréteur de code qui est un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Type de sortie du fichier d’interpréteur de code. Toujours files.Valeurs possibles : files |
Yes |
CodeInterpreterTextOutput
Sortie d’un appel d’outil d’interpréteur de code qui est du texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Journaux de l’appel de l’outil interpréteur de code. |
Yes | |
| type | enum | Type de sortie du texte de l’interpréteur de code. Toujours logs.Valeurs possibles : logs |
Yes |
CodeInterpreterTool
Outil qui exécute du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | ID des fichiers sur utilisant le code. |
Yes | |
| type | enum | Type de l’outil d’interpréteur de code. Toujours code_interpreter.Valeurs possibles : code_interpreter |
Yes |
CodeInterpreterToolCall
Un appel d’outil pour exécuter du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code à exécuter. |
Yes | |
| id | string | ID unique de l’appel de l’outil interpréteur de code. |
Yes | |
| results | array | Résultats de l’appel de l’outil interpréteur de code. |
Yes | |
| status | enum | État de l’appel de l’outil interpréteur de code. Valeurs possibles : in_progress, , interpretingcompleted |
Yes | |
| type | enum | Type de l’appel de l’outil interpréteur de code. Toujours code_interpreter_call.Valeurs possibles : code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Ce composant peut être l’un des éléments suivants :
ComparisonFilter
Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clé à comparer à la valeur. | Yes | |
| type | enum | Spécifie l’opérateur de comparaison : eq, , negt, gtelt, . lte- eq:Égale- ne: non égal- gt: supérieur à- gte: supérieur ou égal à- lt: inférieur à- lte: inférieur ou égal àValeurs possibles : eq, , negt, gte, ltlte |
Yes | |
| value | chaîne ou nombre ou booléen | Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. | Yes |
CompoundFilter
Combinez plusieurs filtres à l’aide and ou or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. |
Yes | |
| type | enum | Type d’opération : and ou or.Valeurs possibles : and, or |
Yes |
ComputerAction
Ce composant peut être l’un des éléments suivants :
ComputerScreenshotImage
Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | Identificateur d’un fichier chargé qui contient la capture d’écran. | No | |
| image_url | string | URL de l’image de capture d’écran. | No | |
| type | enum | Spécifie le type d’événement. Pour une capture d’écran d’ordinateur, cette propriété est toujours définie sur computer_screenshot.Valeurs possibles : computer_screenshot |
Yes |
ComputerTool
Outil qui contrôle un ordinateur virtuel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | Hauteur de l’affichage de l’ordinateur. |
Yes | |
| display_width | number | Largeur de l’affichage de l’ordinateur. |
Yes | |
| environment | enum | Type d’environnement d’ordinateur à contrôler. Valeurs possibles : mac, , windowsubuntu,browser |
Yes | |
| type | enum | Type de l’outil d’utilisation de l’ordinateur. Toujours computer_use_preview.Valeurs possibles : computer-use-preview |
Yes |
ComputerToolCall
Un appel d’outil à un outil d’utilisation d’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. |
Yes | |
| id | string | ID unique de l’appel d’ordinateur. | Yes | |
| pending_safety_checks | array | Vérifications de sécurité en attente pour l’appel de l’ordinateur. |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type de l’appel d’ordinateur. Toujours computer_call.Valeurs possibles : computer_call |
Yes |
ComputerToolCallOutput
Sortie d’un appel d’outil informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. |
No | |
| call_id | string | ID de l’appel de l’outil informatique qui a produit la sortie. |
Yes | |
| id | string | ID de la sortie de l’appel de l’outil informatique. |
No | |
| output | ComputerScreenshotImage | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. |
Yes | |
| status | enum | État de l’entrée de message. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.Valeurs possibles : computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. |
No | |
| call_id | string | ID de l’appel de l’outil informatique qui a produit la sortie. |
Yes | |
| id | string | ID unique de la sortie de l’outil d’appel d’ordinateur. |
Yes | |
| output | ComputerScreenshotImage | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. |
Yes | |
| status | enum | État de l’entrée de message. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.Valeurs possibles : computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Contrôle de sécurité en attente pour l’appel de l’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Type du contrôle de sécurité en attente. | Yes | |
| id | string | ID de la vérification de sécurité en attente. | Yes | |
| message | string | Détails sur le contrôle de sécurité en attente. | Yes |
Content
Contenu d’entrée et de sortie multimodaux.
Ce composant peut être l’un des éléments suivants :
Coordinate
Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Modèle utilisé pour générer les réponses. | No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | chaîne ou tableau | Entrées de texte, d’image ou de fichier dans le modèle, utilisées pour générer une réponse. | Yes | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
No | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. | No | |
| store | boolean | Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. |
No | True |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. | No | False |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés |
No | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque le réponse à l’ajustement de la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No |
DoubleClick
Action double-clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action en double-clic, cette propriété est toujours définie double_clicksur .Valeurs possibles : double_click |
Yes | |
| x | integer | Coordonnée x où le double-clic s’est produit. |
Yes | |
| y | integer | Coordonnée y où le double-clic s’est produit. |
Yes |
Drag
Action glisser.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Tableau de coordonnées représentant le chemin d’accès de l’action glisser. Les coordonnées apparaissent sous la forme d’un tableau d’objets, par exemple[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours définie sur drag.Valeurs possibles : drag |
Yes |
EasyInputMessage
Entrée de message au modèle avec un rôle indiquant l’instruction suivante. Les instructions fournies avec le rôle ou developer le system rôle sont prioritaires sur les instructions fournies avec le user rôle. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string ou InputMessageContentList | Texte, image ou entrée audio du modèle utilisé pour générer une réponse. Peut également contenir des réponses d’assistant précédentes. |
Yes | |
| role | enum | Rôle de l’entrée de message. Un des user, , assistant, systemou developer.Valeurs possibles : user, , assistantsystem,developer |
Yes | |
| type | enum | Type de l’entrée de message. Toujours message.Valeurs possibles : message |
No |
FileCitation
Citation à un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID du fichier. |
Yes | |
| index | integer | Index du fichier dans la liste des fichiers. |
Yes | |
| type | enum | Type de la citation de fichier. Toujours file_citation.Valeurs possibles : file_citation |
Yes |
FilePath
Chemin d’accès à un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID du fichier. |
Yes | |
| index | integer | Index du fichier dans la liste des fichiers. |
Yes | |
| type | enum | Type du chemin d’accès au fichier. Toujours file_path.Valeurs possibles : file_path |
Yes |
FileSearchRanker
Ranker à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, utilisez l’éditeur de auto classement.
| Property | Value |
|---|---|
| Description | Ranker à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, utilisez l’éditeur de auto classement. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Outil qui recherche le contenu pertinent à partir de fichiers chargés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | No | |
| max_num_results | integer | Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. |
No | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ ranker | enum | Ranker à utiliser pour la recherche de fichiers. Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. |
No | 0 |
| type | enum | Type de l’outil de recherche de fichiers. Toujours file_search.Valeurs possibles : file_search |
Yes | |
| vector_store_ids | array | ID des magasins vectoriels à rechercher. |
Yes |
FileSearchToolCall
Résultats d’un appel d’outil de recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID unique de l’appel de l’outil de recherche de fichiers. |
Yes | |
| queries | array | Requêtes utilisées pour rechercher des fichiers. |
Yes | |
| results | array | Résultats de l’appel de l’outil de recherche de fichiers. |
No | |
| status | enum | État de l’appel de l’outil de recherche de fichiers. Un des in_progress, ou searchingincompletefailed,Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed |
Yes | |
| type | enum | Type de l’appel de l’outil de recherche de fichiers. Toujours file_search_call.Valeurs possibles : file_search_call |
Yes |
FunctionTool
Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de la fonction. Utilisé par le modèle pour déterminer s’il faut ou non appeler la fonction. |
No | |
| name | string | Nom de la fonction à appeler. |
Yes | |
| parameters | object | Objet de schéma JSON décrivant les paramètres de la fonction. |
Yes | |
| strict | boolean | Indique s’il faut appliquer une validation stricte des paramètres. Valeur par défaut true. |
Yes | |
| type | enum | Type de l’outil de fonction. Toujours function.Valeurs possibles : function |
Yes |
FunctionToolCall
Un appel d’outil pour exécuter une fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON des arguments à passer à la fonction. |
Yes | |
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. |
Yes | |
| id | string | ID unique de l’appel de l’outil de fonction. |
Yes | |
| name | string | Nom de la fonction à exécuter. |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’appel de l’outil de fonction. Toujours function_call.Valeurs possibles : function_call |
Yes |
FunctionToolCallOutput
Sortie d’un appel d’outil de fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. |
Yes | |
| id | string | ID unique de la sortie de l’appel de l’outil de fonction. Renseigné lorsque cet élément est retourné via l’API. |
No | |
| output | string | Chaîne JSON de la sortie de l’appel de l’outil de fonction. |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de sortie de l’appel de l’outil de fonction. Toujours function_call_output.Valeurs possibles : function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. |
Yes | |
| id | string | ID unique de la sortie de l’outil d’appel de fonction. |
Yes | |
| output | string | Chaîne JSON de la sortie de l’appel de l’outil de fonction. |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de sortie de l’appel de l’outil de fonction. Toujours function_call_output.Valeurs possibles : function_call_output |
Yes |
includable
Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
-
file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers. -
message.input_image.image_url: incluez des URL d’image à partir du message d’entrée. -
computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.
| Property | Value |
|---|---|
| Description | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes : - file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Entrée audio au modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en base64. |
Yes | |
| format | enum | Format des données audio. Actuellement, les formats pris en charge sont mp3 et wav.Valeurs possibles : mp3, wav |
Yes | |
| type | enum | Type de l’élément d’entrée. Toujours input_audio.Valeurs possibles : input_audio |
Yes |
InputContent
Ce composant peut être l’un des éléments suivants :
InputFile
Entrée de fichier dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Contenu du fichier à envoyer au modèle. |
No | |
| file_id | string | ID du fichier à envoyer au modèle. |
No | |
| filename | string | Nom du fichier à envoyer au modèle. |
No | |
| type | enum | Type de l’élément d’entrée. Toujours input_file.Valeurs possibles : input_file |
Yes |
InputImage
Entrée d’image dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Niveau de détail de l’image à envoyer au modèle. Un des high, lowou auto. La valeur par défaut est auto.Valeurs possibles : high, , lowauto |
Yes | |
| file_id | string | ID du fichier à envoyer au modèle. |
No | |
| image_url | string | URL de l’image à envoyer au modèle. Une URL complète ou une image encodée en base64 dans une URL de données. |
No | |
| type | enum | Type de l’élément d’entrée. Toujours input_image.Valeurs possibles : input_image |
Yes |
InputItem
Ce composant peut être l’un des éléments suivants :
InputMessage
Entrée de message au modèle avec un rôle indiquant l’instruction suivante. Les instructions fournies avec le rôle ou developer le system rôle sont prioritaires sur les instructions fournies avec le user rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent types. |
Yes | |
| role | enum | Rôle de l’entrée de message. Un des user, systemou developer.Valeurs possibles : user, , systemdeveloper |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’entrée de message. Toujours défini sur message.Valeurs possibles : message |
No |
InputMessageContentList
Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant différents types de contenu.
Aucune propriété définie pour ce composant.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Liste d’un ou de plusieurs éléments d’entrée dans le modèle, contenant un contenu différent types. |
Yes | |
| id | string | ID unique de l’entrée de message. |
Yes | |
| role | enum | Rôle de l’entrée de message. Un des user, systemou developer.Valeurs possibles : user, , systemdeveloper |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’entrée de message. Toujours défini sur message.Valeurs possibles : message |
No |
InputText
Entrée de texte dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Entrée de texte dans le modèle. |
Yes | |
| type | enum | Type de l’élément d’entrée. Toujours input_text.Valeurs possibles : input_text |
Yes |
Item
Élément de contenu utilisé pour générer une réponse.
Ce composant peut être l’un des éléments suivants :
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Identificateur interne d’un élément à référencer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID de l’élément à référencer. |
Yes | |
| type | enum | Type d’élément à référencer. Toujours item_reference.Valeurs possibles : item_reference |
Yes |
ItemResource
Élément de contenu utilisé pour générer une réponse.
Ce composant peut être l’un des éléments suivants :
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Une collection de touches de touches que le modèle souhaite effectuer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action keypress, cette propriété est toujours définie keypresssur .Valeurs possibles : keypress |
Yes |
Metadata
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
Aucune propriété définie pour ce composant.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Modèle utilisé pour générer les réponses. | No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
Move
Action de déplacement de la souris.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours définie sur move.Valeurs possibles : move |
Yes | |
| x | integer | Coordonnée x à déplacer. |
Yes | |
| y | integer | Coordonnée y à déplacer. |
Yes |
OutputAudio
Sortie audio du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en base64 à partir du modèle. |
Yes | |
| transcript | string | Transcription des données audio du modèle. |
Yes | |
| type | enum | Type de l’audio de sortie. Toujours output_audio.Valeurs possibles : output_audio |
Yes |
OutputContent
Ce composant peut être l’un des éléments suivants :
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Chaîne JSON des arguments à passer à la fonction. |
Yes | |
| call_id | string | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. |
Yes | |
| content | array | Contenu du texte de raisonnement. |
Yes | |
| id | string | Identificateur unique du contenu du raisonnement. |
Yes | |
| name | string | Nom de la fonction à exécuter. |
Yes | |
| pending_safety_checks | array | Vérifications de sécurité en attente pour l’appel de l’ordinateur. |
Yes | |
| queries | array | Requêtes utilisées pour rechercher des fichiers. |
Yes | |
| results | array | Résultats de l’appel de l’outil de recherche de fichiers. |
No | |
| role | enum | Rôle du message de sortie. Toujours assistant.Valeurs possibles : assistant |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type de l’objet. Toujours reasoning.Valeurs possibles : reasoning |
Yes |
OutputMessage
Message de sortie du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du message de sortie. |
Yes | |
| id | string | ID unique du message de sortie. |
Yes | |
| role | enum | Rôle du message de sortie. Toujours assistant.Valeurs possibles : assistant |
Yes | |
| status | enum | État de l’entrée de message. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments d’entrée sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type du message de sortie. Toujours message.Valeurs possibles : message |
Yes |
OutputText
Sortie de texte du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Annotations de la sortie de texte. |
Yes | |
| text | string | Sortie de texte du modèle. |
Yes | |
| type | enum | Type du texte de sortie. Toujours output_text.Valeurs possibles : output_text |
Yes |
RealtimeSessionCreateRequest
Configuration de l’objet session en temps réel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, la valeur par défaut est désactivée et peut être définie pour null désactiver une seule fois. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme des conseils sur le contenu audio d’entrée plutôt que sur ce que le modèle a entendu. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | string | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15et whisper-1. |
No | |
| └─ prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| instructions | string | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être indiqué sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir facilement », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| model | string | Nom du déploiement utilisé pour cette session. |
No | |
| output_audio_format | enum | Format de l’audio de sortie. Les options sont pcm16, g711_ulawou g711_alaw.Pour pcm16, l’audio de sortie est échantillonné à un débit de 24kHz.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour des performances optimales. |
No | 0.8 |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction. |
No | auto |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de tour. Valeurs possibles : server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Nouvelle configuration de session en temps réel, avec une clé éphémère. La durée de vie par défaut des clés est d’une minute.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clé éphémère retournée par l’API. | Yes | |
| └─ expires_at | integer | Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute. |
No | |
| └─ value | string | Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur. |
No | |
| input_audio_format | string | Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw. |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, la valeur par défaut est désactivée et peut être définie pour null désactiver une seule fois. La transcription audio d’entrée n’est pas native du modèle, car le modèle consomme directement l’audio. La transcription s’exécute de manière asynchrone via Whisper et doit être traitée comme des instructions approximatives plutôt que la représentation comprise par le modèle. |
No | |
| └─ model | string | Le modèle à utiliser pour la transcription whisper-1 est le seul modèle actuellement pris en charge. |
No | |
| instructions | string | Les instructions système par défaut (par exemple, message système) sont ajoutées aux appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être demandé sur le contenu et le format de réponse (par exemple, « être extrêmement succinct », « agir convivial », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple, « parler rapidement », « injecter l’émotion dans votre voix », « rire fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des conseils au modèle sur le comportement souhaité. Notez que le serveur définit les instructions par défaut qui seront utilisées si ce champ n’est pas défini et sont visibles dans l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’assistant unique, inclus dans les appels d’outils. Fournissez un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour les jetons maximum disponibles pour un modèle donné. La valeur par défaut est inf. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| output_audio_format | string | Format de l’audio de sortie. Les options sont pcm16, g711_ulawou g711_alaw. |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. La valeur par défaut est 0.8. |
No | |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, requiredou spécifient une fonction. |
No | |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour. Peut être défini pour null désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. |
No | |
| └─ prefix_padding_ms | integer | Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | |
| └─ threshold | number | Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | string | Le type de détection de tour n’est server_vad actuellement pris en charge que. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuration de l’objet de session de transcription en temps réel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | Ensemble d’éléments à inclure dans la transcription. Les éléments disponibles actuels sont les suivants : - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw.Pour pcm16, l’audio d’entrée doit être 16 bits PCM à un taux d’échantillonnage de 24 000 000 bits, un seul canal (mono) et un ordre d’octets de petite fin.Valeurs possibles : pcm16, , g711_ulawg711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration de la réduction du bruit audio d’entrée. Cela peut être défini pour null désactiver.La réduction du bruit filtre l’audio ajouté à la mémoire tampon audio d’entrée avant son envoi à VAD et au modèle. Le filtrage de l’audio peut améliorer la précision de détection de vad et de tour (réduisant les faux positifs) et les performances du modèle en améliorant la perception de l’audio d’entrée. |
No | |
| └─ type | enum | Type de réduction du bruit.
near_field est destiné aux microphones de conversation rapprochés tels que les casques, far_field est destiné aux microphones de champ lointain, tels que les micros portables ou de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration de la transcription audio d’entrée. Le client peut éventuellement définir la langue et demander la transcription, ces instructions supplémentaires sont fournies au service de transcription. |
No | |
| └─ language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | enum | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.Valeurs possibles : gpt-4o-transcribe, , gpt-4o-transcribe-diarizegpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. Pour whisper-1, l’invite est une liste de mots clés.Pour gpt-4o-transcribe les modèles, l’invite est une chaîne de texte libre, par exemple « attendre des mots liés à la technologie ». |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour, ether Server VAD ou VAD sémantique. Cela peut être défini pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de tour (conjointement avec VAD) pour estimer sémantiquement si l’utilisateur a fini de parler, puis définit dynamiquement un délai d’expiration en fonction de cette probabilité. Par exemple, si l’audio utilisateur s’arrête avec uhhm, le modèle note une faible probabilité de fin de tour et attend plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | Indique s’il faut générer ou non automatiquement une réponse lorsqu’un événement d’arrêt VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attend plus longtemps que l’utilisateur continue à parler, high répond plus rapidement.
auto est la valeur par défaut et équivaut à medium.Valeurs possibles : low, , mediumhigh,auto |
No | |
| └─ interrupt_response | boolean | Qu’il s’agisse ou non d’interrompre automatiquement une réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les sessions de transcription. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | enum | Type de détection de tour. Valeurs possibles : server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Nouvelle configuration de session de transcription en temps réel.
Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. La durée de vie par défaut des clés est d’une minute. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clé éphémère retournée par l’API. Présente uniquement lorsque la session est créée sur le serveur via l’API REST. |
Yes | |
| └─ expires_at | integer | Horodatage de l’expiration du jeton. Actuellement, tous les jetons expirent après une minute. |
No | |
| └─ value | string | Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps réel. Utilisez-le dans les environnements côté client plutôt qu’un jeton d’API standard, qui ne doit être utilisé que côté serveur. |
No | |
| input_audio_format | string | Format de l’audio d’entrée. Les options sont pcm16, g711_ulawou g711_alaw. |
No | |
| input_audio_transcription | object | Configuration du modèle de transcription. |
No | |
| └─ language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | enum | Modèle à utiliser pour la transcription. Peut être gpt-4o-transcribe, , gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15ou whisper-1.Valeurs possibles : gpt-4o-transcribe, , gpt-4o-mini-transcribegpt-4o-mini-transcribe-2025-12-15,whisper-1 |
No | |
| └─ prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. |
No | |
| modalities | L’ensemble de modalités avec laquelle le modèle peut répondre. Pour désactiver l’audio, définissez-le sur ["text"]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour. Peut être défini pour null désactiver. Le serveur VAD signifie que le modèle détecte le début et la fin de la reconnaissance vocale en fonction du volume audio et répond à la fin de la reconnaissance vocale de l’utilisateur. |
No | |
| └─ prefix_padding_ms | integer | Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). La valeur par défaut est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). La valeur par défaut est 500 ms. Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | |
| └─ threshold | number | Seuil d’activation pour VAD (0.0 à 1.0), la valeur par défaut est 0,5. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. |
No | |
| └─ type | string | Le type de détection de tour n’est server_vad actuellement pris en charge que. |
No |
Reasoning
Options de configuration pour les modèles de raisonnement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
Yes | medium |
| summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. L’un d’entre concise eux ou detailed.Valeurs possibles : concise, detailed |
No |
ReasoningItem
Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du texte de raisonnement. |
Yes | |
| id | string | Identificateur unique du contenu du raisonnement. |
Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
No | |
| type | enum | Type de l’objet. Toujours reasoning.Valeurs possibles : reasoning |
Yes |
Refusal
Refus du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Explication du refus du modèle. |
Yes | |
| type | enum | Type de refus. Toujours refusal.Valeurs possibles : refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Horodatage Unix (en secondes) de la création de cette réponse. |
Yes | |
| error | ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. |
Yes | |
| id | string | Identificateur unique pour cette réponse. |
Yes | |
| incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. |
Yes | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
Yes | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation. |
No | |
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| model | string | Modèle utilisé pour générer les réponses. | Yes | |
| object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Yes | |
| output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
Yes | |
| output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant. Pris en charge dans les kits SDK Python et JavaScript. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. |
Yes | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. |
No | |
| status | enum | État de la génération de réponse. Un des completed, , failed, in_progressou incomplete.Valeurs possibles : completed, , failedin_progress,incomplete |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
Yes | 1 |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
Yes | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés |
Yes | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
Yes | 1 |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| usage | ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
ResponseAudioDeltaEvent
Émis lorsqu’il existe une réponse audio partielle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Segment d’octets audio de réponse encodés en Base64. |
Yes | |
| type | enum | Type de l’événement. Toujours response.audio.delta.Valeurs possibles : response.audio.delta |
Yes |
ResponseAudioDoneEvent
Émis lorsque la réponse audio est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Toujours response.audio.done.Valeurs possibles : response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Émis lorsqu’il existe une transcription partielle de l’audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Transcription partielle de la réponse audio. |
Yes | |
| type | enum | Type de l’événement. Toujours response.audio.transcript.delta.Valeurs possibles : response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Émis lorsque la transcription audio complète est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Toujours response.audio.transcript.done.Valeurs possibles : response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Émis lorsqu’un extrait de code partiel est ajouté par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Extrait de code partiel ajouté par l’interpréteur de code. |
Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours. |
Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.code.delta.Valeurs possibles : response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Émis lorsque la sortie de l’extrait de code est finalisée par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Sortie finale de l’extrait de code par l’interpréteur de code. |
Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours. |
Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.code.done.Valeurs possibles : response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Émis lorsque l’appel de l’interpréteur de code est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours. |
Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.completed.Valeurs possibles : response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Émis lorsqu’un appel d’interpréteur de code est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours. |
Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.in_progress.Valeurs possibles : response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Émis lorsque l’interpréteur de code interprète activement l’extrait de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de l’interpréteur de code est en cours. |
Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.interpreting.Valeurs possibles : response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Émis lorsque la réponse du modèle est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Type de l’événement. Toujours response.completed.Valeurs possibles : response.completed |
Yes |
ResponseContentPartAddedEvent
Émis lorsqu’un nouveau composant de contenu est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu qui a été ajoutée. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Type de l’événement. Toujours response.content_part.added.Valeurs possibles : response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Émis lorsqu’un composant de contenu est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu effectuée. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Type de l’événement. Toujours response.content_part.done.Valeurs possibles : response.content_part.done |
Yes |
ResponseCreatedEvent
Événement émis lors de la création d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Type de l’événement. Toujours response.created.Valeurs possibles : response.created |
Yes |
ResponseError
Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Code d’erreur de la réponse. |
Yes | |
| message | string | Description lisible par l’homme de l’erreur. |
Yes |
ResponseErrorCode
Code d’erreur de la réponse.
| Property | Value |
|---|---|
| Description | Code d’erreur de la réponse. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Émis lorsqu’une erreur se produit.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code d’erreur. |
Yes | |
| message | string | Message d’erreur. |
Yes | |
| param | string | Paramètre d’erreur. |
Yes | |
| type | enum | Type de l’événement. Toujours error.Valeurs possibles : error |
Yes |
ResponseFailedEvent
Événement émis en cas d’échec d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Type de l’événement. Toujours response.failed.Valeurs possibles : response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Émis lorsqu’un appel de recherche de fichiers est terminé (résultats trouvés).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie lancé par l’appel de recherche de fichier. |
Yes | |
| output_index | integer | Index de l’élément de sortie lancé par l’appel de recherche de fichier. |
Yes | |
| type | enum | Type de l’événement. Toujours response.file_search_call.completed.Valeurs possibles : response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Émis lorsqu’un appel de recherche de fichiers est lancé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie lancé par l’appel de recherche de fichier. |
Yes | |
| output_index | integer | Index de l’élément de sortie lancé par l’appel de recherche de fichier. |
Yes | |
| type | enum | Type de l’événement. Toujours response.file_search_call.in_progress.Valeurs possibles : response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Émis lorsqu’une recherche de fichier effectue actuellement une recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie lancé par l’appel de recherche de fichier. |
Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de recherche de fichier effectue une recherche. |
Yes | |
| type | enum | Type de l’événement. Toujours response.file_search_call.searching.Valeurs possibles : response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Delta des arguments d’appel de fonction ajoutés. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. |
Yes | |
| type | enum | Type de l’événement. Toujours response.function_call_arguments.delta.Valeurs possibles : response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Émis lorsque des arguments d’appel de fonction sont finalisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Arguments d’appel de fonction. | Yes | |
| item_id | string | ID de l’élément. | Yes | |
| output_index | integer | Index de l’élément de sortie. | Yes | |
| type | enum | Valeurs possibles : response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Émis lorsque la réponse est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Type de l’événement. Toujours response.in_progress.Valeurs possibles : response.in_progress |
Yes |
ResponseIncompleteEvent
Événement émis lorsqu’une réponse se termine comme incomplète.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Type de l’événement. Toujours response.incomplete.Valeurs possibles : response.incomplete |
Yes |
responseItemList
Liste des éléments de réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des éléments utilisés pour générer cette réponse. | Yes | |
| first_id | string | ID du premier élément de la liste. | Yes | |
| has_more | boolean | Indique s’il existe d’autres éléments disponibles. | Yes | |
| last_id | string | ID du dernier élément de la liste. | Yes | |
| object | enum | Le type d’objet retourné doit être list.Valeurs possibles : list |
Yes |
ResponseModalities
Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :
["text"]
Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :
["text", "audio"]
Aucune propriété définie pour ce composant.
ResponseModalitiesTextOnly
Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :
["text"]
Cette API prendra bientôt en charge d’autres modalités de sortie, y compris l’audio et les images.
Aucune propriété définie pour ce composant.
ResponseOutputItemAddedEvent
Émis lorsqu’un nouvel élément de sortie est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Index de l’élément de sortie qui a été ajouté. |
Yes | |
| type | enum | Type de l’événement. Toujours response.output_item.added.Valeurs possibles : response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Émis lorsqu’un élément de sortie est marqué comme terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | Index de l’élément de sortie marqué comme terminé. |
Yes | |
| type | enum | Type de l’événement. Toujours response.output_item.done.Valeurs possibles : response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de conversation. |
No | |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. |
No | |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. Learn more: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
No | |
| tool_choice | ToolChoiceOptions ou ToolChoiceTypes ou ToolChoiceFunction | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés |
No | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation. - disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No |
ResponseRefusalDeltaEvent
Émis lorsqu’il existe un texte de refus partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu à laquelle le texte de refus est ajouté. |
Yes | |
| delta | string | Texte de refus ajouté. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel le texte de refus est ajouté. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel le texte de refus est ajouté. |
Yes | |
| type | enum | Type de l’événement. Toujours response.refusal.delta.Valeurs possibles : response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Émis lorsque le texte de refus est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu que le texte de refus est finalisé. |
Yes | |
| item_id | string | ID de l’élément de sortie que le texte de refus est finalisé. |
Yes | |
| output_index | integer | Index de l’élément de sortie que le texte de refus est finalisé. |
Yes | |
| refusal | string | Texte de refus finalisé. |
Yes | |
| type | enum | Type de l’événement. Toujours response.refusal.done.Valeurs possibles : response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Index de l’annotation qui a été ajoutée. |
Yes | |
| arguments | string | Arguments d’appel de fonction. | Yes | |
| code | string | Code d’erreur. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Un appel d’outil pour exécuter du code. |
Yes | |
| content_index | integer | Index de la partie de contenu que le contenu du texte est finalisé. |
Yes | |
| delta | string | Delta de texte ajouté. |
Yes | |
| item | OutputItem | Élément de sortie marqué comme terminé. |
Yes | |
| item_id | string | ID de l’élément de sortie que le contenu du texte est finalisé. |
Yes | |
| message | string | Message d’erreur. |
Yes | |
| output_index | integer | Index de l’élément de sortie que le contenu du texte est finalisé. |
Yes | |
| param | string | Paramètre d’erreur. |
Yes | |
| part | OutputContent | Partie de contenu qui est effectuée. |
Yes | |
| refusal | string | Texte de refus finalisé. |
Yes | |
| response | response | Réponse incomplète. |
Yes | |
| text | string | Contenu texte finalisé. |
Yes | |
| type | enum | Type de l’événement. Toujours response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Émis lorsqu’une annotation de texte est ajoutée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | Index de l’annotation qui a été ajoutée. |
Yes | |
| content_index | integer | Index de la partie de contenu à laquelle l’annotation de texte a été ajoutée. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel l’annotation de texte a été ajoutée. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel l’annotation de texte a été ajoutée. |
Yes | |
| type | enum | Type de l’événement. Toujours response.output_text.annotation.added.Valeurs possibles : response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Émis lorsqu’il existe un delta de texte supplémentaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu à laquelle le delta de texte a été ajouté. |
Yes | |
| delta | string | Delta de texte ajouté. |
Yes | |
| item_id | string | ID de l’élément de sortie auquel le delta de texte a été ajouté. |
Yes | |
| output_index | integer | Index de l’élément de sortie auquel le delta de texte a été ajouté. |
Yes | |
| type | enum | Type de l’événement. Toujours response.output_text.delta.Valeurs possibles : response.output_text.delta |
Yes |
ResponseTextDoneEvent
Émis lorsque le contenu du texte est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu que le contenu du texte est finalisé. |
Yes | |
| item_id | string | ID de l’élément de sortie que le contenu du texte est finalisé. |
Yes | |
| output_index | integer | Index de l’élément de sortie que le contenu du texte est finalisé. |
Yes | |
| text | string | Contenu texte finalisé. |
Yes | |
| type | enum | Type de l’événement. Toujours response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
ResponseUsage
Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Nombre de jetons d’entrée. | Yes | |
| output_tokens | integer | Nombre de jetons de sortie. | Yes | |
| output_tokens_details | object | Répartition détaillée des jetons de sortie. | Yes | |
| └─ reasoning_tokens | integer | Nombre de jetons de raisonnement. | No | |
| total_tokens | integer | Nombre total de jetons utilisés. | Yes |
Screenshot
Action de capture d’écran.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.Valeurs possibles : screenshot |
Yes |
Scroll
Action de défilement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Distance de défilement horizontale. |
Yes | |
| scroll_y | integer | Distance de défilement verticale. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours définie sur scroll.Valeurs possibles : scroll |
Yes | |
| x | integer | Coordonnée x où le défilement s’est produit. |
Yes | |
| y | integer | Coordonnée y où le défilement s’est produit. |
Yes |
StopConfiguration
Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Ce composant peut être l’un des éléments suivants :
TextResponseFormatConfiguration
Objet spécifiant le format que le modèle doit générer.
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour les modèles gpt-4o et versions ultérieures :
Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
Ce composant peut être l’un des éléments suivants :
TextResponseFormatJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. |
No | |
| name | string | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Schéma pour le format de réponse, décrit en tant qu’objet json Schema. | Yes | |
| strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. |
No | False |
| type | enum | Type de format de réponse défini. Toujours json_schema.Valeurs possibles : json_schema |
Yes |
Tool
Ce composant peut être l’un des éléments suivants :
ToolChoiceFunction
Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de la fonction à appeler. | Yes | |
| type | enum | Pour l’appel de fonction, le type est toujours function.Valeurs possibles : function |
Yes |
ToolChoiceOptions
Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
| Property | Value |
|---|---|
| Description | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Indique que le modèle doit utiliser un outil intégré pour générer une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type d’outil hébergé que le modèle doit utiliser. Les valeurs autorisées sont les suivantes : - file_search- computer_use_previewValeurs possibles : file_search, computer_use_preview |
Yes |
Type
Action à taper dans le texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texte à taper. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de type, cette propriété est toujours définie sur type.Valeurs possibles : type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. |
Yes |
UrlCitation
Citation d’une ressource web utilisée pour générer une réponse de modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Index du dernier caractère de la citation d’URL dans le message. |
Yes | |
| start_index | integer | Index du premier caractère de la citation d’URL dans le message. |
Yes | |
| title | string | Titre de la ressource web. |
Yes | |
| type | enum | Type de la citation d’URL. Toujours url_citation.Valeurs possibles : url_citation |
Yes | |
| url | string | URL de la ressource web. |
Yes |
VectorStoreFileAttributes
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.
Aucune propriété définie pour ce composant.
VectorStoreFileContentResponse
Représente le contenu analysé d’un fichier de magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Contenu analysé du fichier. | Yes | |
| has_more | boolean | Indique s’il y a plus de pages de contenu à extraire. | Yes | |
| next_page | string | Jeton de la page suivante, le cas échéant. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.file_content.pageValeurs possibles : vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | ComparisonFilter ou CompoundFilter | Filtre à appliquer en fonction des attributs de fichier. | No | |
| max_num_results | integer | Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. | No | 10 |
| query | chaîne ou tableau | Chaîne de requête pour une recherche | Yes | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ ranker | enum | Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Indique s’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenu texte retourné par la recherche. | Yes | |
| type | enum | Type de contenu. Valeurs possibles : text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. |
Yes | |
| content | array | Blocs de contenu du fichier. | Yes | |
| file_id | string | ID du fichier de magasin de vecteurs. | Yes | |
| filename | string | Nom du fichier de magasin de vecteurs. | Yes | |
| score | number | Score de similarité pour le résultat. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des éléments de résultat de recherche. | Yes | |
| has_more | boolean | Indique s’il y a plus de résultats à extraire. | Yes | |
| next_page | string | Jeton de la page suivante, le cas échéant. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.search_results.pageValeurs possibles : vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Aucune propriété définie pour ce composant.
Wait
Action d’attente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie sur wait.Valeurs possibles : wait |
Yes |
ReasoningEffort
Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
| Property | Value |
|---|---|
| Description | Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Se produit lorsqu’une erreur se produit. Cela peut se produire en raison d’une erreur de serveur interne ou d’un délai d’expiration.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
event Enum : ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Se produit lorsqu’un flux se termine.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
event Enum : DoneEventEnum
| Value | Description |
|---|---|
| done |
enum de données : DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Découvrez les modèles et le réglage précis avec l’API REST. En savoir plus sur les modèles sous-jacents qui alimentent Azure OpenAI.