Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article fournit des détails sur les terminaux d’inférence de l’API REST pour Azure OpenAI.
API specs
La gestion et l’interaction avec les modèles et ressources OpenAI Azure sont réparties sur trois surfaces principales d’API :
- Control plane
- Plan de données - création
- Plan de données - inférence
Chaque surface/spécification API englobe un ensemble différent de capacités Azure OpenAI. Chaque API possède son propre ensemble unique de versions d’aperçu et d’API stable/généralement disponibles (GA). Les sorties de prévisualisation suivent actuellement un rythme mensuel.
Important
Il existe désormais une nouvelle API d’inférence d’aperçu. Découvrez-en plus dans notre guide du cycle de vie de l’API.
| API | Dernière version d’aperçu | Dernière sortie de GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | L’API du plan de contrôle est utilisée pour des opérations telles que la création de ressources, le déploiement de modèles et d’autres tâches de gestion des ressources de haut niveau. Le plan de contrôle régit également ce qui est possible à faire avec des fonctionnalités telles que Azure Resource Manager, Bicep, Terraform et Azure CLI. |
| Data plane | v1 preview |
v1 |
Spec files | L’API du plan de données contrôle les opérations d’inférence et d’authoring. |
Authentication
Azure OpenAI propose deux méthodes d’authentification. Vous pouvez utiliser soit API Keys, soit Microsoft Entra ID.
Authentification par clé API : Pour ce type d’authentification, toutes les requêtes API doivent inclure la clé API dans l’en-tête
api-keyHTTP. Le Quickstart fournit des conseils pour passer des appels avec ce type d’authentification.Microsoft Entra ID : Vous pouvez authentifier un appel API à l’aide d’un jeton Microsoft Entra. Les jetons d’authentification sont inclus dans une requête en tant qu’en-tête Authorization. Le jeton fourni doit être précédé deBearer, par exempleBearer YOUR_AUTH_TOKEN. Vous pouvez lire notre guide pratique sur authentifier avec Microsoft Entra ID.
Versionnement de l’API REST
Les API de service sont versionnées à l’aide du api-version paramètre de requête. Toutes les versions suivent la structure de dates YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inférence dans les plans de données
Le reste de l’article traite de la version preview 2025-04-01-preview de la spécification d’inférence du plan de données OpenAI Azure.
Si vous cherchez de la documentation sur la dernière version de l’API GA, consultez la dernière API d’inférence des plans de données GA
Complétions - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Crée une complétion pour l’invite fournie, les paramètres et le modèle choisi.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Génère best_of des complétions côté serveur et retourne le « meilleur » (celui avec la plus grande probabilité logarithmique par jeton). Les résultats ne peuvent pas être diffusés en streaming.Lorsqu’elle est utilisée avec n, best_of contrôle le nombre de complétions candidates et n spécifie combien retourner ââ'¬â€œ best_of doit être supérieur à n.Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop. |
No | 1 |
| echo | boolean | Faites écho à la consigne en plus de la complétion | No | False |
| frequency_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. | No | 0 |
| logit_bias | object | Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokeniseur GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <token |endoftext> . |
No | None |
| logprobs | integer | Incluez les probabilités logarithiques sur les logprobs jetons de sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 5, l’API renvoie une liste des 5 jetons les plus probables. L’API renvoie toujours le logprob du jeton échantillonné, donc il peut y avoir jusqu’à logprobs+1 jusqu’à des éléments dans la réponse.La valeur maximale pour logprobs est 5. |
No | None |
| max_tokens | integer | Le nombre maximal de jetons pouvant être générés dans la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur contextuelle du modèle. |
No | 16 |
| n | integer | Combien de complétions générer pour chaque invite. Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop. |
No | 1 |
| presence_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. | No | 0 |
| prompt | chaîne ou tableau | L’invite pour générer des complétions pour, encodée sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de document que le modèle voit pendant l’entraînement, donc si une invite n’est pas spécifiée, le modèle se génère comme au début d’un nouveau document. |
Yes | |
| seed | integer | Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend. |
No | |
| stop | chaîne ou tableau | Jusqu’à quatre séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contiendra pas la séquence d’arrêt. | No | |
| stream | boolean | Est-ce qu’il faut réintégrer un progrès partiel en détail. S’ils sont définis, les jetons sont envoyés comme des événements uniquement donnés par le serveur dès qu’ils deviennent disponibles, le flux étant terminé par un data: [DONE] message.
Exemple Python code. |
No | False |
| suffix | string | Le suffixe qui vient après la fin du texte inséré. Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Code de statut : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crée une complétion pour l’invite fournie, les paramètres et le modèle choisi.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Réponses : Code de statut : 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenez une représentation vectorielle d’une entrée donnée qui peut être facilement consommée par des modèles et algorithmes d’apprentissage automatique.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | L’identifiant de déploiement du modèle qui a été déployé. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Le nombre de dimensions que doivent avoir les embeddings de sortie résultantes. Pris en charge uniquement dans text-embedding-3 les modèles et les modèles ultérieurs. |
No | |
| encoding_format | string | Le format pour renvoyer les embeddings. Peut être l’un ou l’autre float ou base64. Par défaut, .float |
No | |
| input | chaîne ou tableau | Texte d’entrée pour l’intégrer, encodé sous forme de chaîne ou de tableau de jetons. Pour intégrer plusieurs entrées dans une seule requête, passez un tableau de chaînes ou un tableau de tableaux de jetons. L’entrée ne doit pas dépasser le maximum de jetons d’entrée pour le modèle (8 192 jetons pour text-embedding-ada-002), ne peut pas être une chaîne vide, et tout tableau doit avoir 2 048 dimensions ou moins. |
Yes | |
| input_type | string | Type d’entrée de recherche d’intégration à utiliser | No | |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Retournez les embeddings pour une invite donnée.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Réponses : Code de statut : 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Complétions de chat - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Crée une complétion pour le message de chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres pour la sortie audio. Requise lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wavdeux , mp3, flac, opus, ou pcm16. Valeurs possibles : wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Précise le type de voix. Les voix soutenues sont alloy, echo, fable, onyx, nova, et shimmer.Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | array | Les entrées de configuration pour les extensions de chat Azure OpenAI qui les utilisent. Cette spécification supplémentaire n’est compatible qu’avec Azure OpenAI. |
No | |
| frequency_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. |
No | 0 |
| function_call | chaîne ou chatCompletionFunctionCallOption | Déprécié au profit de tool_choice.Contrôle quelle fonction (le cas échéant) est appelée par le modèle. none signifie que le modèle n’appellera pas de fonction et générera un message.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.Spécifier une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la fonction par défaut lorsqu’aucune fonction n’est présente.
auto est la valeur par défaut si des fonctions sont présentes. |
No | |
| functions | array | Déprécié au profit de tools.Une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokenizador) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné. |
No | None |
| logprobs | boolean | S’il faut ou non retourner les probabilités logarithiques des jetons de sortie. Si c’est vrai, renvoie les probabilités logarithmitrophiques de chaque jeton de sortie retourné dans le content de message. |
No | False |
| max_completion_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une complétion, incluant les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Le nombre maximal de jetons pouvant être générés lors de la fin du chat. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
No | |
| messages | array | Une liste des messages qui composent la conversation jusqu’à présent. Exemple Python code. | Yes | |
| metadata | object | Étiquettes et valeurs définies par le développeur utilisées pour filtrer les complétions dans le tableau de bord des complétions stockées. | No | |
| modalities | ChatCompletionModalities | Types de sortie que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :["text", "audio"] |
No | |
| n | integer | Combien de choix de fin de conversation générer pour chaque message d’entrée. Vous serez facturé en fonction du nombre de jetons générés dans toutes les options. Gardez n le minimum 1 pour minimiser les coûts. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| prediction | PredictionContent | Configuration pour une sortie prédite, qui peut grandement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. C’est le plus courant lorsque vous régénérez un fichier avec seulement des modifications mineures de la plupart du contenu. | No | |
| presence_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. |
No | 0 |
| reasoning_effort | enum |
Uniquement les modèles O1 Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.Valeurs possibles : low, medium, high |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Un objet spécifiant le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées, qui garantissent que le modèle correspond à votre schéma JSON fourni.Le réglage activant { "type": "json_object" } le mode JSON, qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| seed | integer | Cette fonctionnalité est en version Bêta. Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. |
No | |
| store | boolean | Savoir si la sortie de cette demande de complétion de chat doit être utilisée dans nos produits de distillation ou d’évaluation de modèles. | No | |
| stream | boolean | Si c’est défini, des deltas partiels de message sont envoyés, comme dans ChatGPT. Les jetons sont envoyés uniquement comme des événements envoyés par le serveur dès qu’ils deviennent disponibles, le flux étant interrompu par un data: [DONE] message.
Exemple Python code. |
No | False |
| stream_options | chatCompletionStreamOptions | Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.
none cela signifie que le modèle n’appellera aucun outil et générera un message à la place.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. Spécifier un outil particulier force {"type": "function", "function": {"name": "my_function"}} le modèle à appeler cet outil.
none est la norme par défaut lorsqu’aucun outil n’est présent.
auto est la norme par défaut si des outils sont présents. |
No | |
| tools | array | Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge comme outil. Utilisez cela pour fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont pris en charge. |
No | |
| top_logprobs | integer | Un entier compris entre 0 et 20 spécifiant le nombre de jetons les plus susceptibles de revenir à chaque position de jeton, chacun avec une probabilité logarithmique associée.
logprobs doit être fixé à true si ce paramètre est utilisé. |
No | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No | |
| user_security_context | userSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application d’IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces domaines aident vos équipes d’opérations de sécurité à enquêter et à atténuer les incidents de sécurité en proposant une approche globale pour protéger vos applications d’IA. En savoir plus sur la protection des applications d’IA utilisant Microsoft Defender for Cloud. | No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Code de statut : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crée une complétion pour l’invite fournie, les paramètres et le modèle choisi.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion basée sur les données Azure Search et l’identité managée assignée au système.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion basée sur les données vectorielles d’image Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion basée sur les données du vecteur de recherche Azure, le message d’assistant précédent et l’identité gérée attribuée par l’utilisateur.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion pour la Azure Cosmos DB fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion pour la base de données Mongo fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion pour l’Elasticsearch fourni.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crée une complétion pour la ressource Pinepome fournie.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcriptions - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcrit l’audio dans la langue d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID du modèle à utiliser. Les options sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, et gpt-4o-transcribe-diarize. |
Yes | |
| file | string | L’objet du fichier audio à transcrire. | Yes | |
| language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 améliore la précision et la latence. | No | |
| prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. La consigne doit correspondre au langage audio. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. | No | 0 |
| timestamp_granularities[] | array | Les détails temporels à remplir pour cette transcription.
response_format doit être réglé verbose_json pour utiliser des granularités horodatages. L’une ou l’autre de ces options est prise en charge : word, ou segment. Remarque : Il n’y a pas de latence supplémentaire pour les horodatages de segments, mais la génération de horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texte transcrit dans le format de sortie (lorsque response_format était l’un des text, vtt ou srt). |
Examples
Example
Obtient le texte transcrit et les métadonnées associées à partir des données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtient le texte transcrit et les métadonnées associées à partir des données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code de statut : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traductions - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcrit et traduit l’audio d’entrée en texte anglais.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Le fichier audio à traduire. | Yes | |
| prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Le prompt doit être en anglais. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. | No | 0 |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texte transcrit au format de sortie (quand response_format était un texte de texte, vtt ou srt). |
Examples
Example
Obtient le texte transcrit en anglais et les métadonnées associées à partir des données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code de statut : 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtient le texte transcrit en anglais et les métadonnées associées à partir des données audio parlées fournies.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Réponses : Code de statut : 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Parole - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Génère de l’audio à partir du texte d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Le texte pour synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| response_format | enum | Le format pour synthétiser l’audio. Valeurs possibles : mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | La vitesse de l’audio synthétisé. Sélectionnez une valeur de 0.25 vers 4.0.
1.0 est la norme par défaut. |
No | 1.0 |
| voice | enum | La voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer |
Yes |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Synthétise l’audio à partir du texte fourni.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Réponses : Code de statut : 200
{
"body": "101010101"
}
Générations d’images - Créer
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Génère un lot d’images à partir d’une légende texte sur un déploiement donné du modèle de génération d’images
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permet de définir la transparence pour l’arrière-plan des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. | No | auto |
| n | integer | Le nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. | No | 1 |
| output_compression | integer | Le niveau de compression (0-100%) pour les images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1 avec le format de sortie jpeg. | No | 100 |
| output_format | imagesOutputFormat | Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de la série GPT-image-1. | No | png |
| prompt | string | Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères pour la série gpt-image-1 et de 4 000 caractères pour dall-e-3 | Yes | |
| partial_images | integer | Le nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses en flux qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est réglée à 0, la réponse sera une seule image envoyée lors d’un événement de streaming. Notez que l’image finale peut être envoyée avant que le nombre complet d’images partielles ne soit généré si l’image complète est générée plus rapidement. | 0 | |
| stream | boolean | Modifie l’image en mode streaming. | no | false |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Le format dans lequel les images générées sont renvoyées. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles en série qui retournent toujours des images encodées en base64.Valeurs possibles : url, b64_json. |
No | url |
| size | imageSize | La taille des images générées. | No | auto |
| style | imageStyle | Le style des images générées. Pris en charge uniquement pour DALL-E-3. | No | vivid |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
Responses
Code de statut : 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Code de statut : par défaut
Description : Une erreur s’est produite.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crée des images à partir d’une invitation.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Réponses : Code de statut : 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Générations d’images - Modifier
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Modifie une image à partir d’une légende texte sur un déploiement donné du modèle gpt-image-1
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | chaîne ou tableau | L’image à modifier. Il doit s’agir d’un fichier image pris en charge ou d’un tableau d’images. Chaque image doit être un fichier png ou jpg de moins de 50 Mo. | Yes | |
| input_fidelity | string | Contrôlez l’effort que le modèle fournira pour correspondre au style et aux caractéristiques, en particulier aux traits du visage, des images d’entrée. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. Supports high et low. |
no |
low. |
| mask | string | Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être éditée. Si plusieurs images sont fournies, le masque sera appliqué sur la première image. Il doit s’agir d’un fichier PNG valide, de moins de 4 Mo, et avoir les mêmes dimensions que l’image. | No | |
| n | integer | Le nombre d’images à générer. Ça doit être entre 1 et 10 ans. | No | 1 |
| prompt | string | Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères. | Yes | |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| partial_images | Le nombre d’images partielles à générer. Ce paramètre est utilisé pour les réponses en flux qui retournent des images partielles. La valeur doit être comprise entre 0 et 3. Lorsqu’elle est réglée à 0, la réponse sera une seule image envoyée lors d’un événement de streaming. Notez que l’image finale peut être envoyée avant que le nombre complet d’images partielles ne soit généré si l’image complète est générée plus rapidement. | |||
| stream | boolean | Modifie l’image en mode streaming. | no | false |
| response_format | imagesResponseFormat | Le format dans lequel les images générées sont renvoyées. | No | url |
| size | imageSize | La taille des images générées. | No | auto |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
Responses
Code de statut : 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Code de statut : par défaut
Description : Une erreur s’est produite.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Liste - Assistants
Note
L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Retourne une liste d’assistants.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Retourne une liste d’assistants.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Créer - Assistant
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Créez un assistant avec un modèle et des instructions.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Les instructions système que l’assistant utilise. La longueur maximale est de 256 000 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | Yes | ||
| name | string | Le nom de l’assistante. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le stockage vectoriel est attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| └─ vector_stores | array | Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Créez un assistant avec un modèle et des instructions.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Réponses : Code de statut : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obtenez - Assistant
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Il récupère un assistant.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | La pièce d’identité de l’assistant à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Il récupère un assistant.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modifier - Assistant
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifie un assistant.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | L’ID de l’assistant à modifier. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Les instructions système que l’assistant utilise. La longueur maximale est de 32 768 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | No | ||
| name | string | Le nom de l’assistante. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Outrepasse la liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Remplace le stockage vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifie un assistant.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Réponses : Code de statut : 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Supprimer - Assistant
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Supprimez un assistant.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | L’ID de l’assistant à supprimer. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Supprime un assistant.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Créer - Fil de discussion
Note
L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Créez un fil de discussion.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Une liste de messages pour commencer le fil. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No | |
| └─ vector_stores | array | Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Ça crée un fil de discussion.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obtenez - Fil
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Récupère un fil.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant du fil à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Récupère un fil.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modifier - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifie un fil de discussion.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant du fil à modifier. Seuls les metadata modèles peuvent être modifiés. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifie un fil de discussion.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code de statut : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Supprimer - Fil de discussion
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Supprimez un fil.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant du fil à supprimer. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Supprime un fil.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Liste - Messages
Note
L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Renvoie une liste de messages pour un fil donné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant des threads auxquels appartiennent les messages. |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| run_id | query | No | string | Filtrez les messages selon l’identifiant de la sortie qui les a générés. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Créer - Message
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Créez un message.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID des threads pour créer un message. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Une liste des fichiers attachés au message, et les outils auxquels ils doivent être ajoutés. | No | |
| content | string | Le contenu du message. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| role | string | Le rôle de l’entité qui crée le message. Les valeurs autorisées incluent : - user: Indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.- assistant: Indique que le message est généré par l’assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
Yes |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Créez un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Réponses : Code de statut : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Get - Message
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Récupérez un message.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID des threads auxquels ce message appartient. |
| message_id | path | Yes | string | L’identifiant du message à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Récupérez un message.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modifier - Message
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifie un message.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant du fil auquel ce message appartient. |
| message_id | path | Yes | string | L’ID du message à modifier. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modifier un message.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Réponses : Code de statut : 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Créer - Thread et exécuter
Note
L’API des assistants est désuétude et sera retirée du service le 26 août 2026. Utilisez le service d’agents de fonderie Microsoft généralement disponible. Suivez le guide de migration pour mettre à jour vos charges de travail. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Créez un fil et exécutez-le en une seule requête.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L’identifiant de l’assistant à utiliser pour exécuter cette course. | Yes | |
| instructions | string | Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | L’identifiant des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message. |
No | |
| stream_options | chatCompletionStreamOptions | Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.none cela signifie que le modèle n’appellera aucun outil et générera un message à la place.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | L’identifiant du magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. | No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Créez un fil et exécutez-le en une seule requête.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Réponses : Code de statut : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Liste - Points
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retourne une liste des exécutions appartenant à un thread.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID du thread auquel appartient la séance. |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retourne une liste des exécutions appartenant à un thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Créer - Courir
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Créez une course.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID du fil à exécuter. |
| include[] | query | No | array | Une liste de champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content de récupérer le contenu des résultats de recherche du fichier. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions pour la sélection. Cela est utile pour modifier le comportement par exécution sans outrepasser d’autres instructions. | No | |
| additional_messages | array | Ajoute des messages supplémentaires au fil avant de créer la séquence. | No | |
| assistant_id | string | L’identifiant de l’assistant à utiliser pour exécuter cette course. | Yes | |
| instructions | string | Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | L’ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.none cela signifie que le modèle n’appellera aucun outil et générera un message à la place.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tools | array | Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. | No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Créez une course.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Réponses : Code de statut : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Vas-y, cours
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Il récupère une course.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant des threads qui ont été exécutés. |
| run_id | path | Yes | string | L’identifiant de la course à récupérer. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Il se dépêche.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modifier - Run
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifie une partie.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant des threads qui ont été exécutés. |
| run_id | path | Yes | string | L’ID de la course à modifier. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifie une partie.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Réponses : Code de statut : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Soumettre - Sorties d’outils à exécuter
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Lorsqu’une exécution a le status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour soumettre les sorties des appels d’outils une fois qu’elles sont toutes terminées. Toutes les sorties doivent être soumises dans une seule demande.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID des threads auxquels cette exécution appartient. |
| run_id | path | Yes | string | L’identifiant de la run qui nécessite la soumission de la sortie de l’outil. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message. |
No | |
| tool_outputs | array | Une liste des outils pour lesquels les résultats sont soumis. | Yes |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Lorsqu’une exécution a le status: "requires_action" et required_action.type est submit_tool_outputs, ce point de terminaison peut être utilisé pour soumettre les sorties des appels d’outils une fois qu’elles sont toutes terminées. Toutes les sorties doivent être soumises dans une seule demande.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Réponses : Code de statut : 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Annuler - Courir
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Annule une partie qui est in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant du thread auquel cette exécution appartient. |
| run_id | path | Yes | string | L’ID de la course à annuler. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Annule une partie qui est in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Liste - Run Steps
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retourne une liste des étapes de run appartenant à une run.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’ID du thread auquel appartiennent les étapes d’exécution et d’exécution. |
| run_id | path | Yes | string | L’ID de la course à laquelle appartiennent les étapes de run. |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Une liste de champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content de récupérer le contenu des résultats de recherche du fichier. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retourne une liste des étapes de run appartenant à une run.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Passe - Cours
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Il récupère une marche de course.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | L’identifiant du thread auquel appartient l’étape run et run. |
| run_id | path | Yes | string | L’identifiant de la course à laquelle appartient l’étape de la séquence. |
| step_id | path | Yes | string | L’ID de l’étape de course à récupérer. |
| include[] | query | No | array | Une liste de champs supplémentaires à inclure dans la réponse. Actuellement, la seule valeur prise en charge est step_details.tool_calls[*].file_search.results[*].content de récupérer le contenu des résultats de recherche du fichier. |
| api-version | query | Yes | string |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Il récupère une marche de course.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Liste - Magasins vectoriels
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retourne une liste de magasins vectoriels.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retourne une liste de magasins vectoriels.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Créer - Magasin vectoriel
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Créez un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. Applicable seulement si file_ids elle est non vide. |
No | |
| expires_after | vectorStoreExpirationAfter | La politique d’expiration pour un magasin vectoriel. | No | |
| file_ids | array | Une liste des identifiants de fichiers que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| name | string | Le nom du magasin vectoriel. | No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Crée un magasin vectoriel.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obtenir - Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Récupère un stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du magasin vectoriel à récupérer. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Récupère un stockage vectoriel.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modifier - Stockage vectoriel
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifie un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du stockage vectoriel à modifier. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La politique d’expiration pour un magasin vectoriel. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| name | string | Le nom du magasin vectoriel. | No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifie un magasin vectoriel.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Réponses : Code de statut : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Supprimer - Stockage vectoriel
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Supprime un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du magasin vectoriel à supprimer. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Ça supprime un magasin vectoriel.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Liste - Fichiers de stockage vectoriel
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retourne une liste de fichiers de stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel auquel appartiennent les fichiers. |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| filter | query | No | string Valeurs possibles : in_progress, completed, failed, cancelled |
Filtrez par statut du fichier. L’un des in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retourne une liste de fichiers de stockage vectoriel.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - fichier de stockage vectoriel
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Créez un fichier de stockage vectoriel en associant un fichier à un stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du magasin vectoriel pour lequel créer un fichier. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. |
No | |
| file_id | string | Un identifiant de fichier que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. |
Yes |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Créez un fichier de stockage vectoriel en associant un fichier à un stockage vectoriel.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Réponses : Code de statut : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Get - fichier Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Récupère un fichier de stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | L’identifiant du fichier récupéré. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Récupère un fichier de stockage vectoriel.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Supprimer - fichier de stockage vectoriel
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Supprime un fichier de stockage vectoriel. Cela retirera le fichier du magasin vectoriel mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison supprimer le fichier.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | L’ID du fichier à supprimer. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Supprime un fichier de stockage vectoriel. Cela retirera le fichier du magasin vectoriel mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison supprimer le fichier.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Mettre à jour les attributs sur un fichier de stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant de la mémoire vectorielle à laquelle appartient le fichier. |
| file_id | path | Yes | string | L’ID du fichier pour mettre à jour les attributs. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres. |
Yes |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Récupérer le contenu du fichier de stockage vectoriel
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Récupérez le contenu analysé d’un fichier de stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du magasin vectoriel. |
| file_id | path | Yes | string | L’identifiant du fichier dans le magasin vectoriel. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Stockage vectoriel de recherche
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Recherchez dans un magasin vectoriel les chunks pertinents à partir d’un filtre d’attributs de requête et de fichier.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’ID du magasin vectoriel à rechercher. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtre de comparaison ou filtre composé | Un filtre à appliquer basé sur les attributs du fichier. | No | |
| max_num_results | integer | Le nombre maximal de résultats à revendre. Ce nombre devrait être compris entre 1 et 50. | No | 10 |
| query | chaîne ou tableau | Une chaîne de requête pour une recherche | Yes | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ ranker | enum | Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | S’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | No | False |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Create - Fichier de stockage vectoriel par lots
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Créez un lot de fichiers de stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel pour créer un File Batch. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. |
No | |
| file_ids | array | Une liste des identifiants de fichiers que le magasin vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. |
Yes |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Créez un lot de fichiers de stockage vectoriel.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Réponses : Code de statut : 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get - Fichier Vector Store Batch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Récupère un lot de fichiers de stockage vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | L’identifiant du lot de fichiers récupéré. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Récupère un lot de fichiers de stockage vectoriel.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Annuler - Fichier de stockage vectoriel par lots
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Annulez un lot de fichiers de stockage vectoriel. Cela tente d’annuler le traitement des fichiers dans ce lot le plus rapidement possible.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | L’identifiant du lot de fichiers à annuler. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Annulez un lot de fichiers de stockage vectoriel. Cela tente d’annuler le traitement des fichiers dans ce lot le plus rapidement possible.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Liste - Fichiers batch de stockage vectoriel
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retourne une liste de fichiers de stockage vectoriel en batch.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | L’identifiant du magasin vectoriel auquel appartiennent les fichiers. |
| batch_id | path | Yes | string | L’ID du lot de fichiers auquel appartiennent les fichiers. |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez selon l’horodatage created_at des objets.
asc pour l’ordre croissant et desc l’ordre décroissant. |
| after | query | No | string | Un curseur pour la pagination.
after est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure après = obj_foo afin de récupérer la page suivante de la liste. |
| before | query | No | string | Un curseur pour la pagination.
before est un identifiant d’objet qui définit votre place dans la liste. Par exemple, si vous faites une requête de liste et recevez 100 objets, en commençant par obj_foo, votre appel suivant peut inclure avant=obj_foo afin de récupérer la page précédente de la liste. |
| filter | query | No | string Valeurs possibles : in_progress, completed, failed, cancelled |
Filtrez par statut du fichier. L’un des in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retourne une liste de fichiers de stockage vectoriel.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Réponses : Code de statut : 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Créez un jeton API éphémère pour une utilisation dans les applications côté client avec l’API Temps Réel. Peut être configuré avec les mêmes paramètres de session que l’événement session.update client.
Il répond par un objet de session, ainsi qu’une client_secret clé contenant un jeton éphémère d’API utilisable pouvant être utilisé pour authentifier les clients navigateurs de l’API en temps réel.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.Valeurs possibles : pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle. Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée. |
No | |
| └─ type | enum | Un type de réduction du bruit.
near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être configurée pour null s’éteindre une fois activée. La transcription audio en entrée n’est pas native au modèle, car celui-ci consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme une orientation du contenu audio d’entrée plutôt que comme ce que le modèle a entendu précisément. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription. |
No | |
| └─ language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | string | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1. |
No | |
| └─ prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Pour whisper-1, l’invite est une liste de mots-clés.Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ». |
No | |
| instructions | string | Les instructions système par défaut (c’est-à-dire le message système) précédaient les appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être instruit sur le contenu et le format des réponses (par exemple « soyez extrêmement concis », « soyez amical », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple « parlez vite », « injectez de l’émotion dans votre voix », « riez fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des indications au modèle sur le comportement souhaité. Notez que le serveur définit des instructions par défaut qui seront utilisées si ce champ n’est pas défini et qui sont visibles lors de l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’un seul assistant, incluant les appels d’outils. Fournir un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour le nombre maximal de jetons disponibles pour un modèle donné. Par défaut, .inf |
No | |
| modalities | L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »]. |
No | ||
| model | string | Le nom du déploiement utilisé pour cette session. |
No | |
| output_audio_format | enum | Le format de l’audio de sortie. Les options sont pcm16, g711_ulaw, ou g711_alaw.Pour pcm16, l’audio de sortie est échantillonné à un débit de 24 kHz.Valeurs possibles : pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour de meilleures performances. |
No | 0.8 |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, required, ou spécifier une fonction. |
No | auto |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement.
auto est le par défaut et est équivalent à medium.Valeurs possibles : low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Code de statut : 200
Description : Session créée avec succès.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Créer - Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Créez un jeton API éphémère pour une utilisation dans les applications côté client avec l’API Temps Réel, spécifiquement pour les transcriptions en temps réel.
Peut être configuré avec les mêmes paramètres de session que l’événement transcription_session.update client.
Il répond par un objet de session, ainsi qu’une client_secret clé contenant un jeton éphémère d’API utilisable pouvant être utilisé pour authentifier les clients navigateurs de l’API en temps réel.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | L’ensemble des éléments à inclure dans la transcription. Les articles actuellement disponibles sont : - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.Valeurs possibles : pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle. Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée. |
No | |
| └─ type | enum | Un type de réduction du bruit.
near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio en entrée. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription. |
No | |
| └─ language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | enum | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.Valeurs possibles : gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Pour whisper-1, l’invite est une liste de mots-clés.Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ». |
No | |
| modalities | L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit. Non disponible pour les séances de transcription. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement.
auto est le par défaut et est équivalent à medium.Valeurs possibles : low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les séances de transcription. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No |
Responses
Code de statut : 200
Description : Session créée avec succès.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Crée une réponse modèle.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | chaîne ou tableau | Model inputs | Yes | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses. |
No | |
| max_output_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de la conversation. |
No | |
| parallel_tool_calls | boolean | Permettre au modèle d’exécuter des appels d’outils en parallèle. |
No | True |
| previous_response_id | string | L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. En savoir plus sur l’état de la conversation. |
No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. | No | |
| store | boolean | Savoir s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via API. |
No | True |
| stream | boolean | Si elle est réglée sur true, les données de réponse du modèle seront diffusées au client au fur et à mesure de leur génération via des événements envoyés par le serveur. Voir la section Streaming ci-dessous pour plus d’informations. |
No | False |
| text | object | Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more: - Entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Un objet spécifiant le format que le modèle doit produire. La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.Le format par défaut est { "type": "text" } sans options supplémentaires.Non recommandé pour le gpt-4o et les modèles plus récents : En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent. |
No | |
| tool_choice | OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils | Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler. |
No | |
| tools | array | Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir au modèle sont : - Outils intégrés : Outils fournis par OpenAI qui étendent la model's capabilities |
No | |
| truncation | enum | La stratégie de troncature à utiliser pour la réponse du modèle. - auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre contextuelle du modèle, le modèle tronquera la réponse pour s’adapter à la fenêtre de contexte en supprimant des éléments d’entrée au milieu de la conversation. - disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.Valeurs possibles : auto, disabled |
No |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Code de statut : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Réponses - éléments d’entrée
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Récupère une réponse du modèle avec l’ID donné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L’identifiant de la réponse à récupérer. |
| include | query | No | array | Champs supplémentaires à inclure dans la réponse. Voir le include paramètre de création de réponse ci-dessus pour plus d’informations. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Code de statut : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Supprime une réponse de modèle avec l’ID indiqué.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L’identifiant de la réponse à supprimer. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
Code de statut : 404
Description : Non trouvé
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Code de statut : par défaut
Description : Service indisponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API Réponses - liste des éléments de réponse
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retourne une liste d’éléments d’entrée pour une réponse donnée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Pris en charge Azure terminaux OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par le nom de votre ressource Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | L’identifiant de la réponse pour récupérer les éléments d’entrée pour. |
| limit | query | No | integer | Une limite au nombre d’objets à retourner. La limite peut varier entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
L’ordre pour renvoyer les éléments d’entrée. Par défaut est asc.- asc: Retourner les éléments d’entrée dans l’ordre croissant.- desc: Retourner les éléments d’entrée dans l’ordre décroissant. |
| after | query | No | string | Un identifiant d’élément pour lister les éléments après, utilisé lors de la pagination. |
| before | query | No | string | Un identifiant d’élément pour lister les éléments précédents, utilisé lors de la pagination. |
Request Header
Utilisez soit une authentification basée sur un jeton, soit une clé API. L’authentification par jeton est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification en utilisant Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée : https://ai.azure.com/.default |
| api-key | True | string | Fournissez ici la clé API Azure OpenAI |
Responses
Code de statut : 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erreur intérieure avec des détails supplémentaires. | No | |
| param | string | No | ||
| type | string | No |
innerError
Erreur intérieure avec des détails supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | No | |
| content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. | No |
innerErrorCode
Codes d’erreur pour l’objet d’erreur interne.
| Property | Value |
|---|---|
| Description | Codes d’erreur pour l’objet d’erreur interne. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erreur intérieure avec des détails supplémentaires. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Erreur intérieure avec des détails supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Codes d’erreur pour l’objet d’erreur interne. | No | |
| content_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. | No | |
| revised_prompt | string | La demande utilisée pour générer l’image, s’il y avait une révision de la requête. | No |
contentFilterCompletionTextSpan
Décrit une portée dans le texte de complétion généré. Le décalage 0 est le premier point de code UTF32 du texte de complétion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Décalage du premier point de code UTF32 qui est exclu de la portée. Ce champ est toujours égal à completion_start_offset pour les portées vides. Ce champ est toujours plus grand que completion_start_offset pour les travées non vides. | Yes | |
| completion_start_offset | integer | Décalage du point de code UTF32 qui commence la portée. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Informations sur les résultats du filtrage de contenu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur les textes et jurons tiers, si cela a été détecté, et s’il a été filtré ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Résultats de filtrage de contenu pour une seule invite dans la requête.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. | No | |
| prompt_index | integer | No |
promptFilterResults
Filtrage de contenu pour zéro ou plus d’invites dans la requête. Dans une requête en streaming, les résultats pour différentes invitations peuvent arriver à des moments ou dans des ordres différents.
Aucune propriété définie pour ce composant.
dalleContentFilterResults
Informations sur les résultats du filtrage de contenu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Le filtrage de contenu donne un détail des identifiants de filtre de contenu pour les segments filtrés. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. | No | 0 |
| logit_bias | object | Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet json qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokenizador) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné. | No | |
| max_completion_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une complétion, incluant les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Le nombre maximal de jetons autorisé pour la réponse générée. Par défaut, le nombre de jetons que le modèle peut retourner sera (4096 - jetons à invites). Ce n’est pas compatible avec les modèles de la série O1. | No | 4096 |
| metadata | object | Étiquettes et valeurs définies par le développeur utilisées pour filtrer les complétions dans le tableau de bord des complétions stockées. | No | |
| presence_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. | No | 0 |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. | No | |
| store | boolean | Savoir si la sortie de cette demande de complétion de chat doit être utilisée dans nos produits de distillation ou d’évaluation de modèles. | No | |
| stream | boolean | Si c’est défini, des deltas partiels de message sont envoyés, comme dans ChatGPT. Les jetons sont envoyés uniquement comme des événements envoyés par le serveur dès qu’ils deviennent disponibles, le flux étant interrompu par un data: [DONE] message. |
No | False |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider Azure OpenAI à surveiller et détecter les abus. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Génère best_of des complétions côté serveur et retourne le « meilleur » (celui avec la plus grande probabilité logarithmique par jeton). Les résultats ne peuvent pas être diffusés en streaming.Lorsqu’elle est utilisée avec n, best_of contrôle le nombre de complétions candidates et n spécifie combien retourner.
best_of doit être supérieur à n.Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop. |
No | 1 |
| echo | boolean | Faites écho à la consigne en plus de la complétion |
No | False |
| frequency_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. |
No | 0 |
| logit_bias | object | Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokeniseur GPT) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné. Par exemple, vous pouvez passer {"50256": -100} pour empêcher la génération du <token |endoftext> . |
No | None |
| logprobs | integer | Incluez les probabilités logarithiques sur les logprobs jetons de sortie les plus probables, ainsi que les jetons choisis. Par exemple, si logprobs est 5, l’API renverra une liste des 5 jetons les plus probables. L’API retournera toujours le logprob du jeton échantillonné, donc il peut y avoir jusqu’à jusqu’à logprobs+1 des éléments dans la réponse.La valeur maximale pour logprobs est 5. |
No | None |
| max_tokens | integer | Le nombre maximal de jetons pouvant être générés lors de la complétion. Le nombre de jetons de votre invite plus max_tokens ne peut pas dépasser la longueur contextuelle du modèle. |
No | 16 |
| n | integer | Combien de complétions générer pour chaque invite. Note : Parce que ce paramètre génère de nombreuses complétions, il peut rapidement consommer votre quota de jetons. Utilisez avec soin et assurez-vous d’avoir des réglages raisonnables pour max_tokens et stop. |
No | 1 |
| presence_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. |
No | 0 |
| prompt | chaîne ou tableau | Le(s) prompt(s) pour générer des complétions pour , encodé sous forme de chaîne, tableau de chaînes, tableau de jetons ou tableau de tableaux de jetons. Notez que <|endoftext|> est le séparateur de document que le modèle voit lors de l’entraînement, donc si une invite n’est pas spécifiée, le modèle sera généré comme si c’était le début d’un nouveau document. |
Yes | |
| seed | integer | Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contiendra pas la séquence d’arrêt. |
No | |
| stream | boolean | Est-ce qu’il faut réintégrer un progrès partiel en détail. S’ils sont définis, les jetons sont envoyés comme des événements uniquement donnés par le serveur dès qu’ils deviennent disponibles, le flux étant terminé par un data: [DONE] message.
Exemple Python code. |
No | False |
| suffix | string | Le suffixe qui vient après la fin du texte inséré. Ce paramètre n’est pris en charge que pour gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No |
createCompletionResponse
Représente une réponse de complétion de l’API. Note : les objets de réponse streamés et non streamés partagent la même forme (contrairement au point de terminaison du chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | La liste des choix de complétion générés par le modèle pour l’invite d’entrée. | Yes | |
| created | integer | L’horodatage Unix (en secondes) de la création de la complétion. | Yes | |
| id | string | Un identifiant unique pour l’achèvement. | Yes | |
| model | string | Le modèle utilisé pour la complétion. | Yes | |
| object | enum | Le type d’objet, qui est toujours « text_completion » Valeurs possibles : text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Filtrage de contenu pour zéro ou plus d’invites dans la requête. Dans une requête en streaming, les résultats pour différentes invitations peuvent arriver à des moments ou dans des ordres différents. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration backend avec laquelle le modèle fonctionne. Peut être utilisé conjointement avec le seed paramètre de requête pour comprendre quand des modifications en backend ont été effectuées pouvant impacter le déterminisme. |
No | |
| usage | completionUsage | Statistiques d’utilisation pour la demande de complétion. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres pour la sortie audio. Requise lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wavdeux , mp3, flac, opus, ou pcm16. Valeurs possibles : wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Précise le type de voix. Les voix soutenues sont alloy, echo, fable, onyx, nova, et shimmer.Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | array | Les entrées de configuration pour les extensions de chat Azure OpenAI qui les utilisent. Cette spécification supplémentaire n’est compatible qu’avec Azure OpenAI. |
No | |
| frequency_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, diminuant la probabilité que le modèle répète la même phrase mot pour mot. |
No | 0 |
| function_call | chaîne ou chatCompletionFunctionCallOption | Déprécié au profit de tool_choice.Contrôle quelle fonction (le cas échéant) est appelée par le modèle. none signifie que le modèle n’appellera pas de fonction et générera un message.auto signifie que le modèle peut choisir entre générer un message ou appeler une fonction.Spécifier une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.none est la fonction par défaut lorsqu’aucune fonction n’est présente.
auto est la valeur par défaut si des fonctions sont présentes. |
No | |
| functions | array | Déprécié au profit de tools.Une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifier la probabilité que des jetons spécifiés apparaissent dans la complétion. Accepte un objet JSON qui associe les jetons (spécifiés par leur identifiant de jeton dans le tokenizador) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs comprises entre -1 et 1 devraient diminuer ou augmenter la probabilité de sélection ; des valeurs comme -100 ou 100 devraient entraîner un bannissement ou une sélection exclusive du jeton concerné. |
No | None |
| logprobs | boolean | S’il faut ou non retourner les probabilités logarithiques des jetons de sortie. Si c’est vrai, renvoie les probabilités logarithmitrophiques de chaque jeton de sortie retourné dans le content de message. |
No | False |
| max_completion_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une complétion, incluant les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Le nombre maximal de jetons pouvant être générés lors de la fin du chat. La longueur totale des jetons d’entrée et des jetons générés est limitée par la longueur du contexte du modèle. |
No | |
| messages | array | Une liste des messages qui composent la conversation jusqu’à présent. Exemple Python code. | Yes | |
| metadata | object | Étiquettes et valeurs définies par le développeur utilisées pour filtrer les complétions dans le tableau de bord des complétions stockées. | No | |
| modalities | ChatCompletionModalities | Types de sortie que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :["text", "audio"] |
No | |
| n | integer | Combien de choix de fin de conversation générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés sur toutes les options. Gardez n le minimum 1 pour minimiser les coûts. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| prediction | PredictionContent | Configuration pour une sortie prédite, qui peut grandement améliorer les temps de réponse lorsque de grandes parties de la réponse du modèle sont connues à l’avance. C’est le plus courant lorsque vous régénérez un fichier avec seulement des modifications mineures de la plupart du contenu. | No | |
| presence_penalty | number | Nombre compris entre -2,0 et 2,0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur apparence dans le texte jusqu’à présent, augmentant ainsi la probabilité du modèle d’aborder de nouveaux sujets. |
No | 0 |
| reasoning_effort | enum |
Uniquement les modèles O1 Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.Valeurs possibles : low, medium, high |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Un objet spécifiant le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4o mini, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo plus récents que gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni.Le réglage activant { "type": "json_object" } le mode JSON, qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| seed | integer | Cette fonctionnalité est en version Bêta. Si spécifié, notre système fait un meilleur effort pour échantillonner de manière déterministe, de sorte que des requêtes répétées avec les mêmes seed paramètres et doivent donner le même résultat.Le déterminisme n’est pas garanti, et vous devriez vous référer au system_fingerprint paramètre de réponse pour surveiller les changements dans le backend. |
No | |
| stop | chaîne ou tableau | Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. |
No | |
| store | boolean | Savoir si la sortie de cette demande de complétion de chat doit être utilisée dans nos produits de distillation ou d’évaluation de modèles. | No | |
| stream | boolean | Si c’est défini, des deltas partiels de message sont envoyés, comme dans ChatGPT. Les jetons sont envoyés uniquement comme des événements envoyés par le serveur dès qu’ils deviennent disponibles, le flux étant interrompu par un data: [DONE] message.
Exemple Python code. |
No | False |
| stream_options | chatCompletionStreamOptions | Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. Spécifier un outil particulier force {"type": "function", "function": {"name": "my_function"}} le modèle à appeler cet outil.
none est la norme par défaut lorsqu’aucun outil n’est présent.
auto est la norme par défaut si des outils sont présents. |
No | |
| tools | array | Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge comme outil. Utilisez cela pour fournir une liste des fonctions pour lesquelles le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont pris en charge. |
No | |
| top_logprobs | integer | Un entier compris entre 0 et 20 spécifiant le nombre de jetons les plus susceptibles de revenir à chaque position de jeton, chacun avec une probabilité logarithmique associée.
logprobs doit être fixé à true si ce paramètre est utilisé. |
No | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. |
No | |
| user_security_context | userSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application d’IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces domaines aident vos équipes d’opérations de sécurité à enquêter et à atténuer les incidents de sécurité en proposant une approche globale pour protéger vos applications d’IA. En savoir plus sur la protection des applications d’IA utilisant Microsoft Defender for Cloud. | No |
userSecurityContext
Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application d’IA elle-même et l’utilisateur final qui interagit avec l’application IA. Ces domaines aident vos équipes d’opérations de sécurité à enquêter et à atténuer les incidents de sécurité en proposant une approche globale pour protéger vos applications d’IA. En savoir plus sur la protection des applications d’IA utilisant Microsoft Defender for Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Le nom de la demande. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_id | string | Cet identifiant est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory), utilisé pour authentifier les utilisateurs finaux au sein de l’application d’IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_tenant_id | string | L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. C’est nécessaire lorsque l’application d’IA générative est multi-locataire. | No | |
| source_ip | string | Capture l’adresse IP du client d’origine, acceptant à la fois les formats IPv4 et IPv6. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Une description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Le nom de la fonction à appeler. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. | Yes | |
| parameters | FunctionParameters | Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON.
Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format. Omettre parameters définit une fonction avec une liste de paramètres vide. |
No |
chatCompletionFunctionCallOption
Spécifier une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Le nom de la fonction à appeler. | Yes |
chatCompletionFunctionParameters
Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format.
Aucune propriété définie pour ce composant.
chatCompletionRequestMessage
Ce composant peut être l’un des suivants :
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instructions fournies par le développeur que le modèle doit suivre, indépendamment des messages envoyés par l’utilisateur.
Avec les modèles O1 et plus récents, developer les messages remplacent les messages précédents system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu du message développeur. | Yes | |
| name | string | Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. | No | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas developer.Valeurs possibles : developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu du message système. | Yes | |
| name | string | Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. | No | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas system.Valeurs possibles : system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu du message utilisateur. |
Yes | |
| name | string | Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. | No | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas user.Valeurs possibles : user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu du message de l’assistant. Obligatoire sauf tool_calls indication contraire function_call . |
No | |
| function_call | object | Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle. |
No | |
| └─ arguments | string | Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Le nom de la fonction à appeler. | No | |
| name | string | Un nom optionnel pour le participant. Fournit les informations du modèle permettant de différencier les participants ayant le même rôle. | No | |
| refusal | string | Le message de refus de l’assistant. | No | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas assistant.Valeurs possibles : assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Les appels d’outils générés par le modèle, tels que les appels de fonction. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu du message de l’outil. | Yes | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas tool.Valeurs possibles : tool |
Yes | |
| tool_call_id | string | Appel d’outil auquel ce message répond. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Le contenu du message de fonction. | Yes | |
| name | string | Le nom de la fonction à appeler. | Yes | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas function.Valeurs possibles : function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Ce composant peut être l’un des suivants :
chatCompletionRequestSystemMessageContentPart
Ce composant peut être l’un des suivants :
chatCompletionRequestUserMessageContentPart
Ce composant peut être l’un des suivants :
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Ce composant peut être l’un des suivants :
chatCompletionRequestToolMessageContentPart
Ce composant peut être l’un des suivants :
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Le contenu du texte. | Yes | |
| type | enum | Le type de contenu. Valeurs possibles : text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Données audio encodées en Base64. | No | |
| └─ format | enum | Le format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ». Valeurs possibles : wav, mp3 |
No | |
| type | enum | Le type de contenu. Toujours input_audio.Valeurs possibles : input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Précise le niveau de détail de l’image. En savoir plus dans le guide Vision. Valeurs possibles : auto, low, high |
No | |
| └─ url | string | Soit une URL de l’image, soit les données d’image encodées en base64. | No | |
| type | enum | Le type de contenu. Valeurs possibles : image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Le message de refus généré par le modèle. | Yes | |
| type | enum | Le type de contenu. Valeurs possibles : refusal |
Yes |
azureChatExtensionConfiguration
Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
###Discriminator for azureChatExtensionConfiguration
Ce composant utilise la propriété type pour distinguer différents types :
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureChatExtensionType
Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
| Property | Value |
|---|---|
| Description | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Azure Search lorsqu’on l’utilise comme extension de chat OpenAI d’Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Paramètres pour Azure Search lorsqu’ils sont utilisés comme extension de chat OpenAI Azure. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Paramètres pour Azure Search lorsqu’ils sont utilisés comme extension de chat OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions ou surVotReDataSystemAssignéGéréIdentitatOptionsAuthentication , ou surVotReDataUtilisateurAssignéGéréIdentityOptionsAuthenticationOusurTVotresDonnéesAccessTokenAuthenticationOptions | Yes | ||
| embedding_dependency | onTonDataDataEndpointVectorisationSource ou surTonDataDéploiementNomVectorisationSource ou surTesDonnéesIntégréeVectorisationSource | No | ||
| endpoint | string | Le chemin d’extrémité absolu pour la ressource Azure Search à utiliser. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Search configurée. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom de l’index à utiliser tel que disponible dans la ressource Azure Search référencée. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. | No | |
| query_type | azureSearchQueryType | Le type de requête de recherche Azure qui doit être exécutée lorsqu’on l’utilise comme extension de chat OpenAI Azure. | No | |
| semantic_configuration | string | La configuration sémantique supplémentaire pour la requête. | No | |
| strictness | integer | La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. | No | |
| top_n_documents | integer | Le nombre supérieur configuré de documents à présenter pour la requête configurée. | No |
azureSearchIndexFieldMappingOptions
Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Search configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Les noms des champs d’index qui doivent être considérés comme du contenu. | No | |
| content_fields_separator | string | Le motif séparateur que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Le nom du champ d’index à utiliser comme chemin de fichier. | No | |
| image_vector_fields | array | Les noms des champs qui représentent les données vectorielles d’image. | No | |
| title_field | string | Le nom du champ index à utiliser comme titre. | No | |
| url_field | string | Le nom du champ index à utiliser comme URL. | No | |
| vector_fields | array | Les noms des champs qui représentent des données vectorielles. | No |
azureSearchQueryType
Le type de requête de recherche Azure qui doit être exécutée lorsqu’on l’utilise comme extension de chat OpenAI Azure.
| Property | Value |
|---|---|
| Description | Le type de requête de recherche Azure qui doit être exécutée lorsqu’on l’utilise comme extension de chat OpenAI Azure. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Une représentation spécifique des options configurables pour Azure Cosmos DB lorsqu’il est utilisé comme extension de chat Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation d’Azure Cosmos DB pour MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une chaîne de connexion. | Yes | |
| container_name | string | Le nom du conteneur de ressources Azure Cosmos DB. | Yes | |
| database_name | string | Le nom de base de données MongoDB vCore à utiliser avec Azure Cosmos DB. | Yes | |
| embedding_dependency | onTonDataDataEndpointVectorisationSource ou surVotReDonnéesDéploiementNomVectorisationSource | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée. | Yes | |
| in_scope | boolean | Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom d’index MongoDB vCore à utiliser avec Azure Cosmos DB. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. | No | |
| strictness | integer | La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. | No | |
| top_n_documents | integer | Le nombre supérieur configuré de documents à présenter pour la requête configurée. | No |
azureCosmosDBFieldMappingOptions
Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Azure Cosmos DB configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Les noms des champs d’index qui doivent être considérés comme du contenu. | Yes | |
| content_fields_separator | string | Le motif séparateur que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Le nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Le nom du champ index à utiliser comme titre. | No | |
| url_field | string | Le nom du champ index à utiliser comme URL. | No | |
| vector_fields | array | Les noms des champs qui représentent des données vectorielles. | Yes |
elasticsearchChatExtensionConfiguration
Une représentation spécifique des options configurables pour Elasticsearch lorsqu’il est utilisé comme extension de chat OpenAI sur Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de chat OpenAI d’Azure. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Paramètres à utiliser lors de la configuration d’Elasticsearch® en tant qu’extension de chat OpenAI d’Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onTonDataDataEndpointVectorisationSource ou surTonDataDéploiementNomVectorisationSource ou surVotReModèleIdVectorisationSource | No | ||
| endpoint | string | Le point culminant d’Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée. | No | |
| in_scope | boolean | Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom d’index d’Elasticsearch®. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. | No | |
| query_type | elasticsearchQueryType | Le type de requête de récupération Elasticsearch® qui doit être exécutée lorsqu’il est utilisé comme extension de chat OpenAI sur Azure. | No | |
| strictness | integer | La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. | No | |
| top_n_documents | integer | Le nombre supérieur configuré de documents à présenter pour la requête configurée. | No |
elasticsearchIndexFieldMappingOptions
Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Elasticsearch® configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Les noms des champs d’index qui doivent être considérés comme du contenu. | No | |
| content_fields_separator | string | Le motif séparateur que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Le nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Le nom du champ index à utiliser comme titre. | No | |
| url_field | string | Le nom du champ index à utiliser comme URL. | No | |
| vector_fields | array | Les noms des champs qui représentent des données vectorielles. | No |
elasticsearchQueryType
Le type de requête de récupération Elasticsearch® qui doit être exécutée lorsqu’il est utilisé comme extension de chat OpenAI sur Azure.
| Property | Value |
|---|---|
| Description | Le type de requête de récupération Elasticsearch® qui doit être exécutée lorsqu’il est utilisé comme extension de chat OpenAI sur Azure. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Une représentation spécifique des options configurables pour Mongo DB lorsqu’il est utilisé comme extension de chat OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation de la base de données Mongo. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Paramètres à utiliser lors de la configuration des extensions de chat Azure OpenAI On Your Data lors de l’utilisation de la base de données Mongo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. | No | False |
| app_name | string | Le nom de l’application de la base de données Mongo. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe. | Yes | |
| collection_name | string | Le nom de la collection Mongo DB. | Yes | |
| database_name | string | Le nom de la base de données Mongo. | Yes | |
| embedding_dependency | onTonDataDataEndpointVectorisationSource ou surVotReDonnéesDéploiementNomVectorisationSource | Yes | ||
| endpoint | string | Le nom du point de terminaison du cluster Mongo DB. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource de base de données Mongo configurée. | Yes | |
| in_scope | boolean | Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom de l’index de la base de données Mongo. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. | No | |
| strictness | integer | La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. | No | |
| top_n_documents | integer | Le nombre supérieur configuré de documents à présenter pour la requête configurée. | No |
mongoDBFieldMappingOptions
Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource de base de données Mongo configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Les noms des champs d’index qui doivent être considérés comme du contenu. | Yes | |
| content_fields_separator | string | Le motif séparateur que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Le nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Le nom du champ index à utiliser comme titre. | No | |
| url_field | string | Le nom du champ index à utiliser comme URL. | No | |
| vector_fields | array | Les noms des champs qui représentent des données vectorielles. | Yes |
pineconeChatExtensionConfiguration
Une représentation spécifique des options configurables pour Pinecone lorsqu’il est utilisé comme extension de chat OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Paramètres pour configurer les extensions de chat Azure OpenAI Pinecone. | No | |
| type | azureChatExtensionType | Une représentation des données de configuration pour une seule extension de chat OpenAI d’Azure. Cela sera utilisé par une demande de complétion de chat qui devrait utiliser les extensions de chat OpenAI d’Azure pour renforcer le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Paramètres pour configurer les extensions de chat Azure OpenAI Pinecone.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si spécifié comme vrai, le système permettra d’utiliser des résultats partiels de recherche et la requête échoue si toutes les requêtes échouent. Si elle n’est pas spécifiée ou spécifiée comme fausse, la requête échouera si une requête de recherche échoue. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une clé API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement interne du modèle d’embeddings dans la même ressource Azure OpenAI. | Yes | |
| environment | string | Le nom d’environnement est Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée. | Yes | |
| in_scope | boolean | Est-ce que les requêtes doivent être restreintes à l’utilisation de données indexées. | No | |
| include_contexts | array | Les propriétés incluses du contexte de sortie. Si ce n’est pas spécifié, la valeur par défaut est citations et intent. |
No | |
| index_name | string | Le nom de l’index de la base de données Pinecone. | Yes | |
| max_search_queries | integer | Le nombre maximal de requêtes réécrites doit être envoyé au fournisseur de recherche pour un message utilisateur. Si ce n’est pas spécifié, le système décidera du nombre de requêtes à envoyer. | No | |
| strictness | integer | La stricteur configurée du filtrage de pertinence de recherche. Plus la rigueur est élevée, plus la précision est élevée mais moins la mémoire de la réponse est élevée. | No | |
| top_n_documents | integer | Le nombre supérieur configuré de documents à présenter pour la requête configurée. | No |
pineconeFieldMappingOptions
Paramètres optionnels pour contrôler le traitement des champs lors de l’utilisation d’une ressource Pinecone configurée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Les noms des champs d’index qui doivent être considérés comme du contenu. | Yes | |
| content_fields_separator | string | Le motif séparateur que les champs de contenu doivent utiliser. | No | |
| filepath_field | string | Le nom du champ d’index à utiliser comme chemin de fichier. | No | |
| title_field | string | Le nom du champ index à utiliser comme titre. | No | |
| url_field | string | Le nom du champ index à utiliser comme URL. | No |
onYourDataAuthenticationOptions
Les options d’authentification pour Azure OpenAI sur vos données.
Discriminateur pour onYourDataAuthenticationOptions
Ce composant utilise la propriété type pour distinguer différents types :
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataContextProperty
La propriété de contexte.
| Property | Value |
|---|---|
| Description | La propriété de contexte. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Les types d’authentification pris en charge par Azure OpenAI On Your Data.
| Property | Value |
|---|---|
| Description | Les types d’authentification pris en charge par Azure OpenAI On Your Data. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une clé API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clé API à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une chaîne de connexion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | La chaîne de connexion à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lorsqu’on utilise une paire clé et identifiant de clé Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clé Elasticsearch à utiliser pour l’authentification. | No | |
| key_id | string | L’identifiant de clé Elasticsearch à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une clé API codée par Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | La clé API codée par Elasticsearch pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation du jeton d’accès.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Le jeton d’accès à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une identité managée attribuée au système.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’une identité managée attribuée par l’utilisateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | L’identifiant de ressource de l’identité managée attribuée par l’utilisateur à utiliser pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Les options d’authentification pour Azure OpenAI On Your Data lors de l’utilisation d’un nom d’utilisateur et d’un mot de passe.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. pour l’authentification. | No | |
| type | onYourDataAuthenticationType | Les types d’authentification pris en charge par Azure OpenAI On Your Data. | Yes | |
| username | string | Le nom d’utilisateur à utiliser pour l’authentification. | No |
onYourDataVectorizationSource
Une représentation abstraite d’une source de vectorisation pour Azure OpenAI On Your Data avec recherche vectorielle.
Ce composant utilise la propriété type pour distinguer différents types :
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataVectorizationSourceType
Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle.
| Property | Value |
|---|---|
| Description | Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un appel public d’intégration Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | Le nombre de dimensions que les embeddings doivent avoir. Pris en charge uniquement dans text-embedding-3 les modèles et les modèles ultérieurs. |
No | |
| endpoint | string | Spécifie l’URL du point de terminaison de ressource à partir duquel les embeddings doivent être récupérés. Elle doit être au format .https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings Le paramètre de requête version API n’est pas autorisé. |
No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataDeploymentNameVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, basée sur un nom de déploiement interne de modèle d’embeddings dans la même ressource Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Spécifie le nom du déploiement du modèle à utiliser pour la vectorisation. Ce déploiement du modèle doit se faire dans la même ressource Azure OpenAI, mais On Your Data utilisera ce déploiement via un appel interne plutôt que public, ce qui permet la recherche vectorielle même dans les réseaux privés. | No | |
| dimensions | integer | Le nombre de dimensions que les embeddings doivent avoir. Pris en charge uniquement dans text-embedding-3 les modèles et les modèles ultérieurs. |
No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataIntegratedVectorizationSource
Représente le vectoriseur intégré défini dans la ressource de recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
onYourDataModelIdVectorizationSource
Les détails d’une source de vectorisation, utilisée par Azure OpenAI On Your Data lors de l’application de la recherche vectorielle, est basée sur un ID de modèle de service de recherche. Actuellement uniquement pris en charge par Elasticsearch®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Spécifie l’identifiant du modèle à utiliser pour la vectorisation. Cet ID de modèle doit être défini dans le service de recherche. | No | |
| type | onYourDataVectorizationSourceType | Représente les sources disponibles qu’Azure OpenAI On Your Data peut utiliser pour configurer la vectorisation des données à utiliser avec la recherche vectorielle. | Yes |
azureChatExtensionsMessageContext
Une représentation des informations contextuelles supplémentaires disponibles lorsque des extensions de chat OpenAI d’Azure sont impliquées dans la génération d’une réponse de complétion de chat correspondante. Ces informations contextuelles ne sont remplies que lorsqu’on utilise une requête OpenAI Azure configurée pour utiliser une extension correspondante.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Tous les documents récupérés. | No | |
| citations | array | Le résultat de la récupération de la source de données, utilisé pour générer le message de l’assistant dans la réponse. | No | |
| intent | string | L’intention détectée dans l’historique du chat, utilisée pour passer au tour suivant afin de transmettre le contexte. | No |
citation
Informations de citation pour un message de réponse à la fin d’un chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | L’identifiant du bloc de la contravention. | No | |
| content | string | Le contenu de la citation. | Yes | |
| filepath | string | Le chemin du fichier de la citation. | No | |
| rerank_score | number | Le score de reclassement du document récupéré. | No | |
| title | string | Le titre de la citation. | No | |
| url | string | L’URL de la source. | No |
retrievedDocument
Le document récupéré.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | L’identifiant du bloc de la contravention. | No | |
| content | string | Le contenu de la citation. | Yes | |
| data_source_index | integer | L’index de la source de données. | No | |
| filepath | string | Le chemin du fichier de la citation. | No | |
| filter_reason | filterReason | La raison de filtrage du document récupéré. | No | |
| original_search_score | number | Le score de recherche original du document récupéré. | No | |
| rerank_score | number | Le score de reclassement du document récupéré. | No | |
| search_queries | array | Les requêtes de recherche utilisées pour récupérer le document. | No | |
| title | string | Le titre de la citation. | No | |
| url | string | L’URL de la source. | No |
filterReason
La raison de filtrage du document récupéré.
| Property | Value |
|---|---|
| Description | La raison de filtrage du document récupéré. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La fonction que le modèle a appelée. | Yes | |
| └─ arguments | string | Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Le nom de la fonction à appeler. | No | |
| id | string | L’identifiant de l’appel à outils. | Yes | |
| type | toolCallType | Le type d’appel de l’outil, dans ce cas function. |
Yes |
toolCallType
Le type d’appel de l’outil, dans ce cas function.
| Property | Value |
|---|---|
| Description | Le type d’appel de l’outil, dans ce cas function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Le contenu du message. | No | |
| tool_call_id | string | Appel d’outil auquel ce message répond. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Le contenu du message. | No | |
| name | string | Le contenu du message. | No | |
| role | enum | Le rôle de l’auteur des messages, dans ce cas function.Valeurs possibles : function |
No |
createChatCompletionResponse
Représente une réponse de fin de discussion retournée par le modèle, basée sur l’entrée fournie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Une liste des options pour compléter le chat. Peut être plus d’un si n c’est supérieur à 1. |
Yes | |
| created | integer | L’horodatage Unix (en quelques secondes) de la création de la fin du chat. | Yes | |
| id | string | Un identifiant unique pour la fin du chat. | Yes | |
| model | string | Le modèle utilisé pour compléter le chat. | Yes | |
| object | enum | Le type d’objet, qui est toujours chat.completion.Valeurs possibles : chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Filtrage de contenu pour zéro ou plus d’invites dans la requête. Dans une requête en streaming, les résultats pour différentes invitations peuvent arriver à des moments ou dans des ordres différents. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration backend avec laquelle le modèle fonctionne. Peut être utilisé conjointement avec le seed paramètre de requête pour comprendre quand des modifications en backend ont été effectuées pouvant impacter le déterminisme. |
No | |
| usage | completionUsage | Statistiques d’utilisation pour la demande de complétion. | No |
createChatCompletionStreamResponse
Représente un segment diffusé d’une réponse de fin de chat retournée par le modèle, basé sur l’entrée fournie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Une liste des options pour compléter le chat. Peut contenir plus d’un élément si n est supérieur à 1. |
Yes | |
| created | integer | L’horodatage Unix (en quelques secondes) de la création de la fin du chat. Chaque morceau a le même horodatage. | Yes | |
| id | string | Un identifiant unique pour la fin du chat. Chaque morceau a le même ID. | Yes | |
| model | string | Le modèle pour générer la complétion. | Yes | |
| object | enum | Le type d’objet, qui est toujours chat.completion.chunk.Valeurs possibles : chat.completion.chunk |
Yes | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration backend avec laquelle le modèle fonctionne. Peut être utilisé conjointement avec le seed paramètre de requête pour comprendre quand des modifications en backend ont été effectuées pouvant impacter le déterminisme. |
No |
chatCompletionStreamResponseDelta
Un delta de complétion du chat généré par les réponses du modèle en streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Le contenu du message du bloc. | No | |
| function_call | object | Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle. |
No | |
| └─ arguments | string | Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Le nom de la fonction à appeler. | No | |
| refusal | string | Le message de refus généré par le modèle. | No | |
| role | enum | Le rôle de l’auteur de ce message. Valeurs possibles : system, user, assistant, tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Le nom de la fonction à appeler. | No | |
| id | string | L’identifiant de l’appel à outils. | No | |
| index | integer | Yes | ||
| type | enum | Le type d’outil. Actuellement, seul function est pris en charge.Valeurs possibles : function |
No |
chatCompletionStreamOptions
Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si elle est définie, un segment supplémentaire sera diffusé avant le data: [DONE] message. Le usage champ sur ce chunk affiche les statistiques d’utilisation du token pour l’ensemble de la requête, et le choices champ restera toujours un tableau vide. Tous les autres chunks incluront également un usage champ, mais avec une valeur nulle. |
No |
chatCompletionChoiceLogProbs
Enregistrez les informations de probabilité pour le choix.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Une liste des jetons de contenu des messages avec les informations de probabilité logarithmique. | Yes | |
| refusal | array | Une liste de jetons de refus de message avec des informations de probabilité logarithmique. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Une liste d’entiers représentant la représentation UTF-8 octets du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et où leurs représentations en octets doivent être combinées pour générer la représentation du texte correcte. Peut l’être null s’il n’y a pas de représentation en octets pour le jeton. |
Yes | |
| logprob | number | La probabilité logarithmique de ce jeton. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Liste des jetons les plus probables et de leur probabilité logarithmique, à cette position de jeton. Dans de rares cas, il peut y avoir moins de top_logprobs demandes retournées. |
Yes |
chatCompletionResponseMessage
Un message de complétion de chat généré par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. | No | |
| └─ data | string | Base64 a encodé des octets audio générés par le modèle, dans le format spécifié dans la requête. |
No | |
| └─ expires_at | integer | L’horodatage Unix (en secondes) indiquant que cette réponse audio ne sera plus accessible sur le serveur pour une utilisation dans des conversations à plusieurs tours. |
No | |
| └─ id | string | Identifiant unique pour cette réponse audio. | No | |
| └─ transcript | string | Transcription de l’audio généré par le modèle. | No | |
| content | string | Le contenu du message. | Yes | |
| context | azureChatExtensionsMessageContext | Une représentation des informations contextuelles supplémentaires disponibles lorsque des extensions de chat OpenAI d’Azure sont impliquées dans la génération d’une réponse de complétion de chat correspondante. Ces informations contextuelles ne sont remplies que lorsqu’on utilise une requête OpenAI Azure configurée pour utiliser une extension correspondante. | No | |
| function_call | chatCompletionFunctionCall | Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle. |
No | |
| refusal | string | Le message de refus généré par le modèle. | Yes | |
| role | chatCompletionResponseMessageRole | Le rôle de l’auteur du message de réponse. | Yes | |
| tool_calls | array | Les appels d’outils générés par le modèle, tels que les appels de fonction. | No |
chatCompletionResponseMessageRole
Le rôle de l’auteur du message de réponse.
| Property | Value |
|---|---|
| Description | Le rôle de l’auteur du message de réponse. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils. Spécifier un outil particulier force {"type": "function", "function": {"name": "my_function"}} le modèle à appeler cet outil.
none est la norme par défaut lorsqu’aucun outil n’est présent.
auto est la norme par défaut si des outils sont présents.
Ce composant peut être l’un des suivants :
chatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. À utiliser pour forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Le nom de la fonction à appeler. | No | |
| type | enum | Le type d’outil. Actuellement, seul function est pris en charge.Valeurs possibles : function |
Yes |
ParallelToolCalls
S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil.
Aucune propriété définie pour ce composant.
PredictionContent
Contenu de sortie prédit statique, comme le contenu d’un fichier texte en cours de régénération.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Le contenu qui doit être correspondu lors de la génération d’une réponse modèle. Si les jetons générés correspondent à ce contenu, la réponse complète du modèle peut être retournée beaucoup plus rapidement. | Yes | |
| type | enum | Le type de contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.Valeurs possibles : content |
Yes |
chatCompletionMessageToolCalls
Les appels d’outils générés par le modèle, tels que les appels de fonction.
Aucune propriété définie pour ce composant.
ChatCompletionModalities
Types de sortie que vous souhaitez que le modèle génère pour cette requête. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :
["text"]
Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :
["text", "audio"]
Aucune propriété définie pour ce composant.
chatCompletionFunctionCall
Déprécié et remplacé par tool_calls. Le nom et les arguments d’une fonction à appeler, tels que générés par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Les arguments pour appeler la fonction avec, telle que générée par le modèle au format JSON. Notez que le modèle ne génère pas toujours un JSON valide, et peut halluciner des paramètres non définis par votre schéma de fonction. Validez les arguments de votre code avant d’appeler votre fonction. | Yes | |
| name | string | Le nom de la fonction à appeler. | Yes |
completionUsage
Statistiques d’utilisation pour la demande de complétion.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons dans la complétion générée. | Yes | |
| completion_tokens_details | object | Répartition des jetons utilisés dans une complétion. | No | |
| └─ accepted_prediction_tokens | integer | Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction apparaissant dans la complétion. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio générés par le modèle. | No | |
| └─ reasoning_tokens | integer | Des jetons générés par le modèle pour raisonner. | No | |
| └─ rejected_prediction_tokens | integer | Lors de l’utilisation des sorties prédites, le nombre de jetons dans la prédiction qui n’apparaissaient pas dans la complétion. Cependant, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le total des jetons de complétion pour les besoins de facturation, de sortie et de limites de fenêtres contextuelles. | No | |
| prompt_tokens | integer | Nombre de jetons dans la consigne. | Yes | |
| prompt_tokens_details | object | Détails des jetons de la consigne. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio présents dans la demande. | No | |
| └─ cached_tokens | integer | Le nombre de jetons d’invite mis en cache. | No | |
| total_tokens | integer | Nombre total de jetons utilisés dans la requête (prompt + complétion). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | Le type d’outil. Actuellement, seul function est pris en charge.Valeurs possibles : function |
Yes |
FunctionParameters
Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format.
Omettre parameters définit une fonction avec une liste de paramètres vide.
Aucune propriété définie pour ce composant.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Une description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Le nom de la fonction à appeler. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. | Yes | |
| parameters | FunctionParameters | Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON.
Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format. Omettre parameters définit une fonction avec une liste de paramètres vide. |
No | |
| strict | boolean | S’il faut activer une stricte adhésion au schéma lors de la génération de l’appel de fonction. Si le modèle est réglé sur true, le modèle suivra exactement le schéma défini dans le parameters champ. Seul un sous-ensemble de JSON Schema est pris en charge lorsque strict est true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Le type de format de réponse défini : textValeurs possibles : text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Le type de format de réponse défini : json_objectValeurs possibles : json_object |
Yes |
ResponseFormatJsonSchemaSchema
Le schéma pour le format de réponse est décrit comme un objet de schéma JSON.
Aucune propriété définie pour ce composant.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Une description du format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format. | No | |
| └─ name | string | Le nom du format de la réponse. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | Le schéma pour le format de réponse est décrit comme un objet de schéma JSON. | No | |
| └─ strict | boolean | S’il faut activer une stricte adhésion au schéma lors de la génération de la sortie. Si le modèle est réglé sur vrai, le modèle suivra toujours exactement le schéma défini sur le schema terrain. Seul un sous-ensemble de JSON Schema est pris en charge lorsque strict est true. |
No | False |
| type | enum | Le type de format de réponse défini : json_schemaValeurs possibles : json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Le fichier audio à traduire. | Yes | |
| prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Le prompt doit être en anglais. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. | No | 0 |
audioResponse
Réponse à la traduction ou à la transcription lorsque response_format était json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texte traduit ou transcrit. | Yes |
audioVerboseResponse
Réponse à la traduction ou à la transcription lorsque response_format était verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Type de tâche audio. | No | |
| text | string | Texte traduit ou transcrit. | Yes | |
| words | array | No |
audioResponseFormat
Définit le format de la sortie.
| Property | Value |
|---|---|
| Description | Définit le format de la sortie. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | L’objet du fichier audio à transcrire. | Yes | |
| language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 améliore la précision et la latence. | No | |
| prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. La consigne doit correspondre au langage audio. | No | |
| response_format | audioResponseFormat | Définit le format de la sortie. | No | |
| temperature | number | La température d’échantillonnage, comprise entre 0 et 1. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Si elle est réglée à 0, le modèle utilise la probabilité logarithmique pour augmenter automatiquement la température jusqu’à atteindre certains seuils. | No | 0 |
| timestamp_granularities[] | array | Les détails temporels à remplir pour cette transcription.
response_format doit être réglé verbose_json pour utiliser des granularités horodatages. L’une ou l’autre de ces options est prise en charge : word, ou segment. Remarque : Il n’y a pas de latence supplémentaire pour les horodatages de segments, mais la génération de horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
audioSegment
Segment de transcription ou de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilité logarithmique moyenne. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Décalage de fin de segment. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Probabilité de « pas de parole ». | No | |
| seek | number | Décalage du segment. | No | |
| start | number | Décalage de début de segment. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Des symboles du texte. | No |
audioWord
Mot de transcription ou de traduction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Décalage de fin de Word. | No | |
| start | number | Décalage de départ Word. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Le texte pour synthétiser l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| response_format | enum | Le format pour synthétiser l’audio. Valeurs possibles : mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | La vitesse de l’audio synthétisé. Sélectionnez une valeur de 0.25 vers 4.0.
1.0 est la norme par défaut. |
No | 1.0 |
| voice | enum | La voix à utiliser pour la synthèse vocale. Valeurs possibles : alloy, echo, fable, onyx, nova, shimmer |
Yes |
imageQuality
La qualité de l’image qui sera générée.
| Property | Value |
|---|---|
| Description | La qualité de l’image qui sera générée. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
Le format dans lequel les images générées sont renvoyées.
| Property | Value |
|---|---|
| Description | Le format dans lequel les images générées sont renvoyées. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de série.
| Property | Value |
|---|---|
| Description | Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de la série GPT-image-1. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
La taille des images générées.
| Property | Value |
|---|---|
| Description | La taille des images générées. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
Le style des images générées. Pris en charge uniquement pour DALL-E-3.
| Property | Value |
|---|---|
| Description | Le style des images générées. Pris en charge uniquement pour DALL-E-3. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permet de définir la transparence pour l’arrière-plan de l’image ou des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1.
| Property | Value |
|---|---|
| Description | Permet de définir la transparence pour l’arrière-plan de l’image ou des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permet de définir la transparence pour l’arrière-plan de l’image ou des images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1. | No | auto |
| n | integer | Le nombre d’images à générer. Pour dall-e-3, seul n=1 est pris en charge. | No | 1 |
| output_compression | integer | Le niveau de compression (0-100%) pour les images générées. Ce paramètre n’est pris en charge que pour les modèles série gpt-image-1 avec le format de sortie jpeg. | No | 100 |
| output_format | imagesOutputFormat | Le format de fichier dans lequel les images générées sont renvoyées. Pris en charge uniquement pour les modèles de la série GPT-image-1. | No | png |
| prompt | string | Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères pour les modèles de la série gpt-image-1 et de 4 000 caractères pour dall-e-3 | Yes | |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Le format dans lequel les images générées sont renvoyées. Pris en charge uniquement pour DALL-E-3. | No | url |
| size | imageSize | La taille des images générées. | No | auto |
| style | imageStyle | Le style des images générées. Pris en charge uniquement pour DALL-E-3. | No | vivid |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | chaîne ou tableau | L’image à modifier. Il doit s’agir d’un fichier image pris en charge ou d’un tableau d’images. Chaque image doit être un fichier png ou jpg de moins de 25 Mo. | Yes | |
| mask | string | Une image supplémentaire dont les zones entièrement transparentes (par exemple, où alpha est zéro) indiquent où l’image doit être éditée. Si plusieurs images sont fournies, le masque sera appliqué sur la première image. Il doit s’agir d’un fichier PNG valide, de moins de 4 Mo, et avoir les mêmes dimensions que l’image. | No | |
| n | integer | Le nombre d’images à générer. | No | 1 |
| prompt | string | Une description textuelle de l’image ou des images souhaitées. La longueur maximale est de 32 000 caractères. | Yes | |
| quality | imageQuality | La qualité de l’image qui sera générée. | No | auto |
| response_format | imagesResponseFormat | Le format dans lequel les images générées sont renvoyées. | No | url |
| size | imageSize | La taille des images générées. | No | auto |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | L’horodatage Unix lors de la création de l’opération. | Yes | |
| data | array | Les données de résultat de l’opération, si elles ont réussi | Yes | |
| usage | imageGenerationsUsage | Représente les détails d’utilisation des jetons pour les requêtes de génération d’images. Uniquement pour les modèles GPT-image-1. | No |
imageResult
L’URL de l’image ou l’image encodée si elle réussit, et une erreur sinon.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | L’image codée en base64 | No | |
| content_filter_results | dalleContentFilterResults | Informations sur les résultats du filtrage de contenu. | No | |
| prompt_filter_results | dalleFilterResults | Informations sur la catégorie de filtrage de contenu (haine, sexuel, violence, self_harm), si elle a été détectée, ainsi que sur le niveau de gravité (very_low, faible, moyen, élevé qui détermine l’intensité et le niveau de risque du contenu nuisible) et si elle a été filtrée ou non. Informations sur le contenu jailbreak et les jurons, s’ils ont été détectés, et si ils ont été filtrés ou non. Et des informations sur la liste de blocage des clients, si elle a été filtrée et son identifiant. | No | |
| revised_prompt | string | La demande utilisée pour générer l’image, s’il y avait une révision de la requête. | No | |
| url | string | L’URL de l’image. | No |
imageGenerationsUsage
Représente les détails d’utilisation des jetons pour les requêtes de génération d’images. Uniquement pour les modèles GPT-image-1.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Le nombre de jetons d’entrée. | No | |
| input_tokens_details | object | Une analyse détaillée des jetons d’entrée. | No | |
| └─ image_tokens | integer | Le nombre de jetons d’image. | No | |
| └─ text_tokens | integer | Le nombre de jetons textuels. | No | |
| output_tokens | integer | Le nombre de jetons de sortie. | No | |
| total_tokens | integer | Le nombre total de jetons utilisés. | No |
line
Un objet ligne de contenu constitué d’une séquence adjacente d’éléments de contenu, tels que des mots et des marques de sélection.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Un tableau de plages qui représentent les objets détectés et leurs informations de boîtes englobantes. | Yes | |
| text | string | Yes |
span
Un objet span qui représente un objet détecté et ses informations de boîte englobante.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | La longueur de l’étendue en caractères, mesurée en points de code Unicode. | Yes | |
| offset | integer | Le décalage de caractère dans le texte où commence l’étendue. Ce décalage est défini comme la position du premier caractère de l’étendue, comptant à partir du début du texte comme des points de code Unicode. | Yes | |
| polygon | array | Un tableau d’objets représentant des points dans le polygone qui enferme l’objet détecté. | Yes | |
| text | string | Le contenu textuel de l’étendue qui représente l’objet détecté. | Yes |
runCompletionUsage
Statistiques d’utilisation liées à la course. Cette valeur sera null si la course n’est pas en état terminal (c’est-à-dire in_progress, queued, etc.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons de complétion utilisés au cours de la partie. | Yes | |
| prompt_tokens | integer | Nombre de jetons d’invite utilisés au cours de la partie. | Yes | |
| total_tokens | integer | Nombre total de jetons utilisés (invite + complétion). | Yes |
runStepCompletionUsage
Statistiques d’utilisation liées à la phase de course. Cette valeur sera null alors que le statut de l’étape de course est in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons de complétion utilisés au cours de l’étape de la course. | Yes | |
| prompt_tokens | integer | Nombre de jetons de prompt utilisés au cours de l’étape de la course. | Yes | |
| total_tokens | integer | Nombre total de jetons utilisés (invite + complétion). | Yes |
assistantsApiResponseFormatOption
Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.
Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.
Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.
Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte.
Ce composant peut être l’un des suivants :
assistantsApiResponseFormat
Un objet décrivant la sortie attendue du modèle. Si json_object seuls function les types tools sont autorisés à être transmis à la Run. Si text le modèle peut retourner du texte ou toute valeur nécessaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Doit être l’un des text ou json_object. |
No | text |
type Enum : AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Représente un assistant qui peut appeler le modèle et utiliser des outils.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | L’horodatage Unix (en secondes) indique la création de l’assistant. | Yes | |
| description | string | La description de l’assistant. La longueur maximale est de 512 caractères. |
Yes | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| instructions | string | Les instructions système que l’assistant utilise. La longueur maximale est de 256 000 caractères. |
Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
Yes | |
| model | string | ID du modèle à utiliser. | Yes | |
| name | string | Le nom de l’assistante. La longueur maximale est de 256 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | L’identifiant du magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, file_search, ou function. |
Yes | [] |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
objet Enum : AssistantObjectType
| Value | Description |
|---|---|
| assistant | Le type d’objet, qui est toujours assistant |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Les instructions système que l’assistant utilise. La longueur maximale est de 256 000 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | Yes | ||
| name | string | Le nom de l’assistante. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le stockage vectoriel est attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| └─ vector_stores | array | Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La description de l’assistant. La longueur maximale est de 512 caractères. |
No | |
| instructions | string | Les instructions système que l’assistant utilise. La longueur maximale est de 32 768 caractères. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | No | ||
| name | string | Le nom de l’assistante. La longueur maximale est de 256 caractères. |
No | |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Outrepasse la liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Remplace le stockage vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Une liste des outils activés sur l’assistant. Il peut y avoir un maximum de 128 outils par assistant. Les outils peuvent être de types code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objet Enum : DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Le type d’outil défini : code_interpreter |
Yes |
type Enum : assistantCodeCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Des dérogations pour l’outil de recherche de fichiers. | No | |
| └─ max_num_results | integer | Le nombre maximal de résultats que l’outil de recherche de fichiers devrait produire. Par défaut est 20 pour les modèles GPT-4* et 5 pour les GPT-3,5-turbo. Ce nombre devrait être compris entre 1 et 50. Notez que l’outil de recherche de fichiers peut produire moins de résultats. max_num_results |
No | |
| type | string | Le type d’outil défini : file_search |
Yes |
type Enum : assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Le type d’outil défini : file_search |
Yes |
type Enum : assistantToolsFileSearchType
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La définition de la fonction. | Yes | |
| └─ description | string | Une description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| └─ name | string | Le nom de la fonction à appeler. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Les paramètres acceptés par les fonctions sont décrits comme un objet schéma JSON. Voir le guide pour des exemples, ainsi que la référence du schéma JSON pour la documentation sur le format. | No | |
| type | string | Le type d’outil défini : function |
Yes |
type Enum : assistantToolsFunction
| Value | Description |
|---|---|
| function |
truncationObject
Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | Le nombre de messages les plus récents du thread lors de la construction du contexte de la séquence. | No | |
| type | string | La stratégie de troncature à utiliser pour le thread. La valeur par défaut est auto. Si elle est définie à last_messages, le thread sera tronqué aux n messages les plus récents du thread. Lorsqu’elle est définie à auto, les messages au milieu du thread seront supprimés pour correspondre à la longueur contextuelle du modèle, max_prompt_tokens. |
Yes |
type Enum : troncatureType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.
Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
Ce composant peut être l’un des suivants :
assistantsNamedToolChoice
Spécifie un outil que le modèle doit utiliser. À utiliser pour forcer le modèle à appeler un outil spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | Le nom de la fonction à appeler. | No | |
| type | string | Le type d’outil. Si le type est function, le nom de la fonction doit être défini |
Yes |
type Enum : AssistantsNamedToolChoiceType
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Représente une exécution sur un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L’identifiant de l’assistant utilisé pour l’exécution de cette course. | Yes | |
| cancelled_at | integer | L’horodatage Unix (en quelques secondes) indique quand l’exécution a été annulée. | Yes | |
| completed_at | integer | L’horodatage Unix (en secondes) indique la fin de l’exécution. | Yes | |
| created_at | integer | L’horodatage Unix (en secondes) indique la création de l’exécution. | Yes | |
| expires_at | integer | L’horodatage Unix (en secondes) indique quand l’exécution expire. | Yes | |
| failed_at | integer | L’horodatage Unix (en secondes) pour indiquer l’échec de l’exécution. | Yes | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| incomplete_details | object | Détails sur les raisons pour lesquelles la série est incomplète. Ça le null sera si la série n’est pas incomplète. |
Yes | |
| └─ reason | string | La raison pour laquelle la série est incomplète. Cela indiquera quelle limite spécifique de jetons a été atteinte au cours de la partie. | No | |
| instructions | string | Les instructions que l’assistant a utilisées pour cette course. | Yes | |
| last_error | object | La dernière erreur associée à cette exécution. Ça le null sera s’il n’y a pas d’erreurs. |
Yes | |
| └─ code | string | L’un des server_error ou rate_limit_exceeded. |
No | |
| └─ message | string | Une description lisible par l’homme de l’erreur. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de complétion spécifiés à avoir utilisés au cours de la course. |
Yes | |
| max_prompt_tokens | integer | Le nombre maximal de jetons d’invite spécifiés à utiliser au cours de la séquence. |
Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
Yes | |
| model | string | Le modèle que l’assistant a utilisé pour cette séquence. | Yes | |
| object | string | Le type d’objet, qui est toujours thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| required_action | object | Détails sur l’action nécessaire pour poursuivre la course. Ce sera null le cas si aucune action n’est nécessaire. |
Yes | |
| └─ submit_tool_outputs | object | Détails sur les sorties de l’outil nécessaires pour que cette série se poursuive. | No | |
| └─ tool_calls | array | Une liste des appels d’outils pertinents. | No | |
| └─ type | enum | Pour l’instant, c’est toujours submit_tool_outputsça.Valeurs possibles : submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
Yes | |
| started_at | integer | L’horodatage Unix (en quelques secondes) indique le moment où la sortie a été lancée. | Yes | |
| status | string | Le statut de la séquence, qui peut être soit queued, in_progress, requires_action, cancelling, failedcancelled, completed, ou expired. |
Yes | |
| temperature | number | La température d’échantillonnage utilisée pour cette course. Si ce n’est pas réglé, par défaut est à 1. | No | |
| thread_id | string | L’identifiant des threads qui ont été exécutés dans le cadre de cette exécution. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.none signifie que le modèle n’appellera aucun outil et générera un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
Yes | |
| tools | array | La liste des outils que l’assistant a utilisés pour cette course. | Yes | [] |
| top_p | number | La valeur d’échantillonnage du noyau utilisée pour cette course. Si ce n’est pas réglé, par défaut est à 1. | No | |
| truncation_strategy | truncationObject | Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. | Yes | |
| usage | runCompletionUsage | Statistiques d’utilisation liées à la course. Cette valeur sera null si la course n’est pas en état terminal (c’est-à-dire in_progress, queued, etc.). |
Yes |
object Enum : runObjectType
| Value | Description |
|---|---|
| thread.run | Le type d’objet run qui est toujours thread.run |
status Enum : RunObjectStatus
| Value | Description |
|---|---|
| queued | L’état en file d’attente |
| in_progress | L’État in_progress |
| requires_action | L’État required_action |
| cancelling | L’état d’annulation |
| cancelled | L’État annulé |
| failed | L’État en faillite |
| completed | L’état achevé |
| expired | L’État expiré |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Ajoute des instructions supplémentaires à la fin des instructions pour la sélection. Cela est utile pour modifier le comportement par exécution sans outrepasser d’autres instructions. | No | |
| additional_messages | array | Ajoute des messages supplémentaires au fil avant de créer la séquence. | No | |
| assistant_id | string | L’identifiant de l’assistant à utiliser pour exécuter cette course. | Yes | |
| instructions | string | Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | L’ID du modèle à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.none signifie que le modèle n’appellera aucun outil et générera un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tools | array | Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message. |
No | |
| tool_outputs | array | Une liste des outils pour lesquels les résultats sont soumis. | Yes |
runToolCallObject
Objets d’appel d’outils
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La définition de la fonction. | Yes | |
| └─ arguments | string | Les arguments que le modèle attend de vous à transmettre à la fonction. | No | |
| └─ name | string | Le nom de la fonction. | No | |
| id | string | L’identifiant de l’appel à outils. Cet ID doit être référencé lorsque vous soumettez les sorties de l’outil en utilisant les sorties d’outil d’envoi pour exécuter endpointendpoint. | Yes | |
| type | string | Le type d’appel d’outil pour lequel la sortie est requise. Pour l’instant, c’est toujours functionça. |
Yes |
type Enum : RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L’identifiant de l’assistant à utiliser pour exécuter cette course. | Yes | |
| instructions | string | Écrase le message système par défaut de l’assistant. Cela est utile pour modifier le comportement par exécution. | No | |
| max_completion_tokens | integer | Le nombre maximal de jetons de complétion pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de complétion spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons d’achèvement spécifiés, elle se termine avec un statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| max_prompt_tokens | integer | Le nombre maximal de jetons de prompt pouvant être utilisés au cours de la partie. La partie fait de son mieux pour n’utiliser que le nombre de jetons de prompt spécifiés, sur plusieurs tours de la partie. Si la série dépasse le nombre de jetons de prompt spécifiés, la série se termine avec le statut incomplete. Voir incomplete_details pour plus d’informations. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| model | string | L’identifiant des modèles à utiliser pour exécuter cette exécution. Si une valeur est fournie ici, elle supprimera le modèle associé à l’assistant. Sinon, le modèle associé à l’assistant sera utilisé. | No | |
| parallel_tool_calls | ParallelToolCalls | S’il faut activer l’appel de fonctions parallèles lors de l’utilisation de l’outil. | No | True |
| response_format | assistantsApiResponseFormatOption | Précise le format que le modèle doit produire. Compatible avec GPT-4o, GPT-4 Turbo et tous les modèles GPT-3.5 Turbo depuis gpt-3.5-turbo-1106.Le réglage sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées qui garantissent que le modèle correspond à votre schéma JSON fourni. En savoir plus dans le guide des sorties structurées.Activer { "type": "json_object" } le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.Important : lors de l’utilisation du mode JSON, vous devez également demander au modèle de produire vous-même le JSON via un message système ou utilisateur. Sans cela, le modèle peut générer un flux ininterrompu d’espaces blancs jusqu’à ce que la génération atteigne la limite de tokens, ce qui entraîne une demande de longue durée et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a max_tokens dépassé ou que la conversation a dépassé la longueur maximale du contexte. |
No | |
| stream | boolean | Si true, renvoie un flux d’événements qui se produisent pendant la Run comme événements envoyés par le serveur, se terminant lorsque la Run entre dans un état terminal avec un data: [DONE] message. |
No | |
| stream_options | chatCompletionStreamOptions | Options pour la réponse en streaming. Ne réglez cela que lorsque vous activez stream: true. |
No | None |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Contrôle quel outil (le cas échéant) est appelé par le modèle.none signifie que le modèle n’appellera aucun outil et générera un message.auto est la valeur par défaut et signifie que le modèle peut choisir entre générer un message ou appeler un outil.Spécifier un outil particulier comme {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil. |
No | |
| tool_resources | object | Un ensemble de ressources utilisées par les outils de l’assistant. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | L’identifiant du magasin vectoriel attaché à cet assistant. Il peut y avoir un maximum de 1 mémoire vectorielle attachée à l’assistant. |
No | |
| tools | array | Écartez les outils que l’assistant peut utiliser pour cette course. Cela est utile pour modifier le comportement par exécution. | No | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela ou la température, mais pas les deux. |
No | 1 |
| truncation_strategy | truncationObject | Contrôles sur la façon dont un thread sera tronqué avant la sortie. Utilisez cela pour contrôler la fenêtre de contexte initiale de la partie. | No |
threadObject
Représente un fil qui contient des messages.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | L’horodatage Unix (en quelques secondes) indique la création du thread. | Yes | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours thread. |
Yes | |
| tool_resources | object | Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No |
objet Enum : ThreadObjectType
| Value | Description |
|---|---|
| thread | Le type d’objet thread qui est toujours thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Une liste de messages pour commencer le fil. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No | |
| └─ vector_stores | array | Un assistant pour créer un stockage vectoriel avec file_ids et l’attacher à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| tool_resources | object | Un ensemble de ressources mises à disposition des outils de l’assistant dans ce fil. Les ressources sont spécifiques au type d’outil. Par exemple, l’outil code_interpreter nécessite une liste d’identifiants de fichiers, tandis qu’il file_search nécessite une liste d’identifiants de stockage vectoriel. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Une liste des identifiants de fichiers mis à disposition de l’outil code_interpreter . Il peut y avoir un maximum de 20 fichiers associés à l’outil. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Le magasin vectoriel attaché à ce fil. Il peut y avoir un maximum d’un stockage vectoriel attaché au fil. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objet Enum : DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | L’état de l’objet réponse du fil supprimé, qui est thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Représente un message au sein d’un thread.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Le cas échéant, l’identifiant de l’assistant qui a rédigé ce message. | Yes | |
| attachments | array | Une liste des fichiers attachés au message, et des outils auxquels ils ont été ajoutés. | Yes | |
| completed_at | integer | L’horodatage Unix (en secondes) indique la date de complétion du message. | Yes | |
| content | array | Le contenu du message sous forme de texte et/ou d’images. | Yes | |
| created_at | integer | L’horodatage Unix (en secondes) indique la création du message. | Yes | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| incomplete_at | integer | L’horodatage Unix (en secondes) indique quand le message était marqué comme incomplet. | Yes | |
| incomplete_details | object | Sur un message incomplet, des détails expliquant pourquoi le message est incomplet. | Yes | |
| └─ reason | string | La raison pour laquelle le message est incomplet. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours thread.message. |
Yes | |
| role | string | L’entité qui a produit le message. L’un des user ou assistant. |
Yes | |
| run_id | string | Le cas échéant, l’ID de la run associée à l’auteur de ce message. | Yes | |
| status | string | Le statut du message, qui peut être soit in_progress, incomplete, soit completed. |
Yes | |
| thread_id | string | L’identifiant du thread auquel ce message appartient. | Yes |
objet Enum : MessageObjectType
| Value | Description |
|---|---|
| thread.message | Le type d’objet message qui est thread.message |
status Enum : MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
rôle Enum : MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Représente un delta de message, c’est-à-dire tout champ modifié sur un message pendant le streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Le delta contenant les champs qui ont changé sur le Message. | Yes | |
| └─ content | array | Le contenu du message sous forme de texte et/ou d’images. | No | |
| └─ role | string | L’entité qui a produit le message. L’un des user ou assistant. |
No | |
| id | string | L’identifiant du message, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| object | string | Le type d’objet, qui est toujours thread.message.delta. |
Yes |
objet Enum : MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Une liste des fichiers attachés au message, et les outils auxquels ils doivent être ajoutés. | No | |
| content | string | Le contenu du message. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| role | string | Le rôle de l’entité qui crée le message. Les valeurs autorisées incluent : - user: Indique que le message est envoyé par un utilisateur réel et doit être utilisé dans la plupart des cas pour représenter des messages générés par l’utilisateur.- assistant: Indique que le message est généré par l’assistant. Utilisez cette valeur pour insérer des messages de l’assistant dans la conversation. |
Yes |
rôle Enum : CreateMessageRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objet Enum : DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | L’état de l’objet de réponse au message supprimé |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | L’ID du fichier de l’image dans le contenu du message. | No | |
| type | string | Toujours image_file. |
Yes |
type Enum : MessageContentImageFileObjectType
| Value | Description |
|---|---|
| image_file | Le type de fichier image de contenu du message |
messageContentTextObject
Le contenu textuel qui fait partie d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | Les données qui composent le texte. | No | |
| type | string | Toujours text. |
Yes |
type Enum : messageContenttextObjectType
| Value | Description |
|---|---|
| text | Le contenu du message texte Type d’objet |
messageContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’assistant ou au message. Généré lorsque l’assistant utilise l’outil de « récupération » pour rechercher des fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | L’identifiant du fichier spécifique dont provient la citation. | No | |
| start_index | integer | Yes | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | Yes | |
| type | string | Toujours file_citation. |
Yes |
type Enum : FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | Le type d’objet de citation du fichier |
messageContentTextAnnotationsFilePathObject
Une URL pour le fichier généré lorsque l’assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | L’identifiant du fichier qui a été généré. | No | |
| start_index | integer | Yes | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | Yes | |
| type | string | Toujours file_path. |
Yes |
type Enum : FilePathObjectType
| Value | Description |
|---|---|
| file_path | Le type d’objet chemin de fichier |
messageDeltaContentImageFileObject
Fait référence à un fichier image dans le contenu d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | L’ID du fichier de l’image dans le contenu du message. | No | |
| index | integer | L’index du contenu dans le message. | Yes | |
| type | string | Toujours image_file. |
Yes |
type Enum : MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
Le contenu textuel qui fait partie d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | L’index du contenu dans le message. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | Les données qui composent le texte. | No | |
| type | string | Toujours text. |
Yes |
type Enum : MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Une citation dans le message qui pointe vers une citation spécifique d’un fichier spécifique associé à l’assistant ou au message. Généré lorsque l’assistant utilise l’outil « file_search » pour rechercher dans les fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | L’identifiant du fichier spécifique dont provient la citation. | No | |
| └─ quote | string | La citation spécifique dans le dossier. | No | |
| index | integer | L’index de l’annotation dans la partie contenu textuel. | Yes | |
| start_index | integer | No | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | No | |
| type | string | Toujours file_citation. |
Yes |
type Enum : MessageDeltaContenuTexteAnnotationsFichierCitationObjectType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Une URL pour le fichier généré lorsque l’assistant a utilisé l’outil code_interpreter pour générer un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | L’identifiant du fichier qui a été généré. | No | |
| index | integer | L’index de l’annotation dans la partie contenu textuel. | Yes | |
| start_index | integer | No | ||
| text | string | Le texte dans le contenu du message qui doit être remplacé. | No | |
| type | string | Toujours file_path. |
Yes |
type Enum : MessageDeltaContenuTexteAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Représente une étape dans l’exécution d’une partie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | L’identifiant de l’assistant associé au pas de course. | Yes | |
| cancelled_at | integer | L’horodatage Unix (en quelques secondes) indique quand l’étape de run a été annulée. | Yes | |
| completed_at | integer | L’horodatage Unix (en secondes) indique la fin de l’étape d’exécution. | Yes | |
| created_at | integer | L’horodatage Unix (en secondes) indique la création de l’étape d’exécution. | Yes | |
| expired_at | integer | L’horodatage Unix (en secondes) indique quand l’étape d’exécution a expiré. Une étape est considérée comme expirée si la série mère est expirée. | Yes | |
| failed_at | integer | L’horodatage Unix (en quelques secondes) indique quand l’étape d’exécution échoue. | Yes | |
| id | string | L’identifiant de l’étape d’exécution, qui peut être référencé dans les points de terminaison API. | Yes | |
| last_error | object | La dernière erreur associée à cette étape de course. Ça le null sera s’il n’y a pas d’erreurs. |
Yes | |
| └─ code | string | L’un des server_error ou rate_limit_exceeded. |
No | |
| └─ message | string | Une description lisible par l’homme de l’erreur. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
Yes | |
| object | string | Le type d’objet, qui est toujours assistant.run.step. |
Yes | |
| run_id | string | L’identifiant de la course à laquelle cette étape de course fait partie. | Yes | |
| status | string | Le statut de la séquence, qui peut être soit in_progress, cancelled, failed, completed, ou expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Les détails de la course à pied. | Yes | |
| thread_id | string | L’identifiant des threads qui ont été exécutés. | Yes | |
| type | string | Le type de pas de course, qui peut être soit message_creation soit tool_calls. |
Yes |
objet Enum : RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | Le type d’objet, qui est toujours assistant.run.step |
type Enum : RunStepObjectType
| Value | Description |
|---|---|
| message_creation | L’étape message_creation course |
| tool_calls | L’étape tool_calls course |
statut Enum : RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | Le statut de la in_progress |
| cancelled | Le statut de la série annulée |
| failed | Le statut de la série annulée |
| completed | Le statut de la série annulée |
| expired | Le statut de la série annulée |
runStepDeltaObject
Représente un delta de run step, c’est-à-dire tous les champs modifiés lors d’un run step pendant le streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | Le delta contenant les champs qui ont changé lors de la phase de course. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepToolsToolCallsObject | Les détails de la course à pied. | No | |
| id | string | L’identifiant de l’étape d’exécution, qui peut être référencé dans les points de terminaison API. | Yes | |
| object | string | Le type d’objet, qui est toujours thread.run.step.delta. |
Yes |
objet Enum : RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Détails de la création du message par étape de course.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | L’ID du message créé par cette étape d’exécution. | No | |
| type | string | Toujours message_creation. |
Yes |
type Enum : RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Détails de la création du message par étape de course.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | L’ID du message créé par cette étape d’exécution. | No | |
| type | string | Toujours message_creation. |
Yes |
type Enum : RunStepDeltaStepsMessagesCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Détails de l’appel à outils.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Une série d’appels d’outils dans lesquels l’étape d’exécution était impliquée. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreter, retrieval ou function. |
Yes | |
| type | string | Toujours tool_calls. |
Yes |
type Enum : RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Détails de l’appel à outils.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Une série d’appels d’outils dans lesquels l’étape d’exécution était impliquée. Celles-ci peuvent être associées à l’un des trois types d’outils : code_interpreter, file_search ou function. |
No | |
| type | string | Toujours tool_calls. |
Yes |
type Enum : RunStepDeltaStepsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Les détails de l’outil d’interprétation de code appelaient l’étape d’exécution dans laquelle était impliqué.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Définition de l’appel de l’outil d’interpréteur de code. | Yes | |
| └─ input | string | L’entrée de l’outil Code Interpreter appelle. | No | |
| └─ outputs | array | Les sorties de l’outil d’interprétation de code appellent. L’interprète de code peut produire un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun de ces éléments est représenté par un type d’objet différent. |
No | |
| id | string | L’identifiant de l’appel à outils. | Yes | |
| type | string | Le type d’appel à outils. C’est toujours code_interpreter pour ce type d’appel d’outils. |
Yes |
type Enum : RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Les détails de l’outil d’interprétation de code appelaient l’étape d’exécution dans laquelle était impliqué.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | Définition de l’appel de l’outil d’interpréteur de code. | No | |
| └─ input | string | L’entrée de l’outil Code Interpreter appelle. | No | |
| └─ outputs | array | Les sorties de l’outil d’interprétation de code appellent. L’interprète de code peut produire un ou plusieurs éléments, y compris du texte (logs) ou des images (image). Chacun de ces éléments est représenté par un type d’objet différent. |
No | |
| id | string | L’identifiant de l’appel à outils. | No | |
| index | integer | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Le type d’appel à outils. C’est toujours code_interpreter pour ce type d’appel d’outils. |
Yes |
type Enum : RunStepDeltaStepsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
La sortie texte de l’outil Code Interpreter est appelée dans le cadre d’une étape de course.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | La sortie texte de l’outil Code Interpreter appelle. | Yes | |
| type | string | Toujours logs. |
Yes |
type Enum : RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
La sortie texte de l’outil Code Interpreter est appelée dans le cadre d’une étape de course.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | L’indice de la sortie dans le tableau de sorties. | Yes | |
| logs | string | La sortie texte de l’outil Code Interpreter appelle. | No | |
| type | string | Toujours logs. |
Yes |
type Enum : RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | L’identifiant du fichier de l’image. | No | |
| type | string | Toujours image. |
Yes |
type Enum : RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | L’identifiant du fichier de l’image. | No | |
| index | integer | L’indice de la sortie dans le tableau de sorties. | Yes | |
| type | string | Toujours image. |
Yes |
type Enum : RunStepDeltaStepsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Pour l’instant, ce sera toujours un objet vide. | Yes | |
| └─ results | array | Les résultats de la recherche de fichiers. | No | |
| id | string | L’ID de l’objet d’appel de l’outil. | Yes | |
| type | string | Le type d’appel à outils. C’est toujours file_search pour ce type d’appel d’outils. |
Yes |
type Enum : RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Un résultat de la recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Le contenu du résultat qui a été trouvé. Le contenu n’est inclus que si demandé via le paramètre de requête d’inclusion. | No | |
| file_id | string | L’identifiant du fichier dans lequel le résultat a été trouvé. | Yes | |
| file_name | string | Le nom du fichier dans lequel le résultat a été trouvé. | Yes | |
| score | number | Le score du résultat. Toutes les valeurs doivent être un nombre à virgule flottante entre 0 et 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Pour l’instant, ce sera toujours un objet vide. | Yes | |
| id | string | L’ID de l’objet d’appel de l’outil. | No | |
| index | integer | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Le type d’appel à outils. C’est toujours retrieval pour ce type d’appel d’outils. |
Yes |
type Enum : RunStepDeltaStepsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La définition de la fonction appelée. | Yes | |
| └─ arguments | string | Les arguments passaient à la fonction. | No | |
| └─ name | string | Le nom de la fonction. | No | |
| └─ output | string | La sortie de la fonction. Cela se fera null si les résultats n’ont pas encore été soumis. |
No | |
| id | string | L’ID de l’objet d’appel de l’outil. | Yes | |
| type | string | Le type d’appel à outils. C’est toujours function pour ce type d’appel d’outils. |
Yes |
type Enum : RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La définition de la fonction appelée. | No | |
| └─ arguments | string | Les arguments passaient à la fonction. | No | |
| └─ name | string | Le nom de la fonction. | No | |
| └─ output | string | La sortie de la fonction. Cela se fera null si les résultats n’ont pas encore été soumis. |
No | |
| id | string | L’ID de l’objet d’appel de l’outil. | No | |
| index | integer | L’index de l’appel d’outil dans le tableau d’appels d’outils. | Yes | |
| type | string | Le type d’appel à outils. C’est toujours function pour ce type d’appel d’outils. |
Yes |
type Enum : RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
La politique d’expiration pour un magasin vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Fixez l’heure de l’ancre après laquelle la politique d’expiration s’applique. Ancrages supportés : last_active_at. |
Yes | |
| days | integer | Le nombre de jours après la période d’ancrage pendant laquelle le stockage vectoriel expirera. | Yes |
Enum ancre : VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | L’horodatage de l’ancre après lequel la politique d’expiration s’applique. |
vectorStoreObject
Un stockage vectoriel est une collection de fichiers traités pouvant être utilisés par l’outil file_search .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | L’horodatage Unix (en secondes) indique la création du magasin vectoriel. | Yes | |
| expires_after | vectorStoreExpirationAfter | La politique d’expiration pour un magasin vectoriel. | No | |
| expires_at | integer | L’horodatage Unix (en quelques secondes) pour indiquer quand le magasin vectoriel expirera. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Le nombre de fichiers qui ont été annulés. | No | |
| └─ completed | integer | Le nombre de fichiers qui ont été traités avec succès. | No | |
| └─ failed | integer | Le nombre de fichiers qui n’ont pas été traités. | No | |
| └─ in_progress | integer | Le nombre de fichiers actuellement en cours de traitement. | No | |
| └─ total | integer | Le nombre total de fichiers. | No | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| last_active_at | integer | L’horodatage Unix (en secondes) indique la dernière fois que le magasin vectoriel était actif. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
Yes | |
| name | string | Le nom du magasin vectoriel. | Yes | |
| object | enum | Le type d’objet, qui est toujours vector_store.Valeurs possibles : vector_store |
Yes | |
| status | string | L’état du stockage vectoriel, qui peut être expiredsoit , in_progress, soit completed. Un statut de completed indique que le stockage vectoriel est prêt à être utilisé. |
Yes | |
| usage_bytes | integer | Le nombre total d’octets utilisés par les fichiers dans la mémoire vectorielle. | Yes |
status Enum : VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. Applicable seulement si file_ids elle est non vide. |
No | |
| expires_after | vectorStoreExpirationAfter | La politique d’expiration pour un magasin vectoriel. | No | |
| file_ids | array | Une liste des identifiants de fichiers que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| name | string | Le nom du magasin vectoriel. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La politique d’expiration pour un magasin vectoriel. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré. Les clés peuvent atteindre jusqu’à 64 caractères et les valeurs peuvent atteindre un maximum de 512 caractères. |
No | |
| name | string | Le nom du magasin vectoriel. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objet Enum : DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | L’état de l’objet de réponse du mémoire vectoriel supprimer |
vectorStoreFileObject
Une liste de fichiers attachés à un magasin vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. Applicable seulement si file_ids elle est non vide. |
No | |
| created_at | integer | L’horodatage Unix (en secondes) pour la création du fichier de stockage vectoriel. | Yes | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| last_error | object | La dernière erreur associée à ce fichier de stockage vectoriel. Ça le null sera s’il n’y a pas d’erreurs. |
Yes | |
| └─ code | string | Un de server_error ou invalid_file ou unsupported_file. |
No | |
| └─ message | string | Une description lisible par l’homme de l’erreur. | No | |
| object | string | Le type d’objet, qui est toujours vector_store.file. |
Yes | |
| status | string | Le statut du fichier de stockage vectoriel, qui peut être soit in_progress, completed, cancelled, ou failed. Le statut completed indique que le fichier de stockage vectoriel est prêt à être utilisé. |
Yes | |
| usage_bytes | integer | L’utilisation totale de stockage vectoriel en octets. Notez que cela peut différer de la taille originale du fichier. | Yes | |
| vector_store_id | string | L’identifiant du magasin vectoriel auquel le fichier est attaché. | Yes |
objet Enum : VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
status Enum : VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Cette méthode est renvoyée lorsque la stratégie de chunking est inconnue. En général, cela s’explique par le fait que le fichier était indexé avant que le chunking_strategy concept ne soit introduit dans l’API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Toujours other. |
Yes |
type Enum : AutreChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Toujours static. |
Yes |
type Enum : StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Le nombre de jetons qui se chevauchent entre les chunks. La valeur par défaut est 400.Notez que le chevauchement ne doit pas dépasser la moitié de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Le nombre maximal de jetons dans chaque bloc. La valeur par défaut est 800. La valeur minimale est 100 et la valeur maximale est 4096. |
Yes |
autoChunkingStrategyRequestParam
La stratégie par défaut. Cette stratégie utilise actuellement un max_chunk_size_tokens de 800 et chunk_overlap_tokens de 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Toujours auto.Valeurs possibles : auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Toujours static.Valeurs possibles : static |
Yes |
chunkingStrategyRequestParam
La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie.
Ce composant peut être l’un des suivants :
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. |
No | |
| file_id | string | Un identifiant de fichier que le stockage vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objet Enum : DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Un lot de fichiers attachés à un stockage vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | L’horodatage Unix (en secondes) pour la création en lots des fichiers de stockage vectoriel. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Le nombre de fichiers qui ont été annulés. | No | |
| └─ completed | integer | Le nombre de fichiers traités. | No | |
| └─ failed | integer | Le nombre de fichiers qui n’ont pas été traités. | No | |
| └─ in_progress | integer | Le nombre de fichiers actuellement en cours de traitement. | No | |
| └─ total | integer | Le nombre total de fichiers. | No | |
| id | string | L’identifiant, qui peut être référencé dans les points de terminaison de l’API. | Yes | |
| object | string | Le type d’objet, qui est toujours vector_store.file_batch. |
Yes | |
| status | string | Le statut des fichiers de stockage vectoriel par lots, qui peut être in_progresssoit , completed, cancelled soit failed. |
Yes | |
| vector_store_id | string | L’identifiant du magasin vectoriel auquel le fichier est attaché. | Yes |
objet Enum : VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
Status Enum : VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La stratégie de fragmentation utilisée pour fragmenter le(s) fichier(s). Si ce n’est pas fixé, j’utiliserai la auto stratégie. |
No | |
| file_ids | array | Une liste des identifiants de fichiers que le magasin vectoriel devrait utiliser. Utile pour ce file_search genre d’outils qui peuvent accéder aux fichiers. |
Yes |
assistantStreamEvent
Représente un événement émis lors du streaming d’une Run.
Chaque événement dans un flux d’événements envoyé par le serveur possède une event propriété et data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Nous émettons des événements chaque fois qu’un nouvel objet est créé, transite vers un nouvel état ou est diffusé en parties (deltas). Par exemple, nous émettons thread.run.created quand une nouvelle exécution est créée, thread.run.completed quand une exécution est terminée, et ainsi de suite. Lorsqu’un Assistant choisit de créer un message pendant une course, nous émettons un thread.message.created event, un thread.message.in_progress événement, de nombreux thread.message.delta événements, et enfin un thread.message.completed événement.
Nous pourrions ajouter d’autres événements au fil du temps, donc nous recommandons de gérer les événements inconnus avec grâce dans votre code.
Ce composant peut être l’un des suivants :
threadStreamEvent
Ce composant peut être l’un des suivants :
thread.created
Ça se produit lorsqu’un nouveau thread est créé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Représente un fil qui contient des messages. | Yes | |
| event | string | Yes |
Data: threadObject
Event Enum : ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | L’événement créé par le thread |
runStreamEvent
Ce composant peut être l’un des suivants :
thread.run.created
Ça se produit lorsqu’une nouvelle partie est créée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum : RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Se produit lorsqu’une série passe à un queued statut.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum : RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ça se produit lorsqu’une série passe à un in_progress statut.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Événement Enum : RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Se produit lorsqu’une série passe à un requires_action statut.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum : RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Se produit lorsqu’une partie est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Événement Enum : RunStreamEventTerminé
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Elle se produit lorsqu’une course échoue.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Événement Enum : RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Se produit lorsqu’une série passe à un cancelling statut.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Événement Enum : RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Se produit lorsqu’une partie est annulée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Événement Enum : RunStreamEventAnnulled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Elle se produit lorsqu’une course expire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Représente une exécution sur un thread. | Yes | |
| event | string | Yes |
Data: runObject
Événement Enum : RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Ce composant peut être l’un des suivants :
thread.run.step.created
Elle se produit lors de la création d’un pas de course.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une partie. |
Yes | |
| event | string | Yes |
Data: runStepObject
Événement Enum : RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Se produit lorsqu’un pas de course passe à un in_progress état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une partie. |
Yes | |
| event | string | Yes |
Data: runStepObject
Événement Enum : RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Elle se produit lorsque des parties d’un pas de course sont en streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Représente un delta de run step, c’est-à-dire tous les champs modifiés lors d’un run step pendant le streaming. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Événement Enum : RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ça se produit lorsqu’une étape de course est complétée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une partie. |
Yes | |
| event | string | Yes |
Data: runStepObject
Événement Enum : RunStepStreamEventTerminé
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ça se produit lorsqu’un pas de course échoue.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une partie. |
Yes | |
| event | string | Yes |
Data: runStepObject
Événement Enum : RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Se produit lorsqu’un pas de course est annulé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une partie. |
Yes | |
| event | string | Yes |
Data: runStepObject
Événement Enum : RunStepStreamEventAnnulled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Elle se produit lorsqu’un pas de course expire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Représente une étape dans l’exécution d’une partie. |
Yes | |
| event | string | Yes |
Data: runStepObject
Événement Enum : RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Ce composant peut être l’un des suivants :
thread.message.created
Apparaît lors de la création d’un message.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Événement Enum : MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Se produit lorsqu’un message passe à un in_progress état.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Événement Enum : MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Cela se produit lorsque des parties d’un message sont diffusées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Représente un delta de message, c’est-à-dire tout champ modifié sur un message pendant le streaming. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Event Enum : MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Apparaît lorsqu’un message est complété.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Événement Enum : MessageStreamÉvénementTerminé
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Apparaît lorsqu’un message se termine avant d’être terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Représente un message au sein d’un thread. | Yes | |
| event | string | Yes |
Data: messageObject
Événement Enum : MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Ce composant peut être l’un des suivants :
Click
Un clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indique quel bouton de souris a été pressé pendant le clic. L’un des left, right, wheel, back, ou forward.Valeurs possibles : left, right, wheel, back, forward |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours fixée à click.Valeurs possibles : click |
Yes | |
| x | integer | La coordonnée x où le clic a eu lieu. |
Yes | |
| y | integer | La coordonnée y où le clic a eu lieu. |
Yes |
CodeInterpreterFileOutput
La sortie d’un outil d’interprétation de code est un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | Le type de sortie du fichier de l’interpréteur de code. Toujours files.Valeurs possibles : files |
Yes |
CodeInterpreterTextOutput
La sortie d’un outil d’interprétation de code qui est du texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Les journaux de l’outil d’interprétation de code s’appellent. |
Yes | |
| type | enum | Le type de l’interprétation de code de la sortie texte. Toujours logs.Valeurs possibles : logs |
Yes |
CodeInterpreterTool
Un outil qui fait tourner du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Les identifiants des fichiers sur lesquels exécuter le code. |
Yes | |
| type | enum | Le type de l’outil d’interprétation de code. Toujours code_interpreter.Valeurs possibles : code_interpreter |
Yes |
CodeInterpreterToolCall
Un appel à l’outil pour exécuter du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Le code à exécuter. |
Yes | |
| id | string | L’ID unique de l’outil d’interprétation de code l’appelle. |
Yes | |
| results | array | Les résultats de l’appel de l’outil d’interprétation de code. |
Yes | |
| status | enum | L’état de l’outil d’interprétation de code est appelé. Valeurs possibles : in_progress, interpreting, completed |
Yes | |
| type | enum | Le type d’outil d’interprétation de code appelé Toujours code_interpreter_call.Valeurs possibles : code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Ce composant peut être l’un des suivants :
ComparisonFilter
Un filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clé est de comparer avec la valeur. | Yes | |
| type | enum | Spécifie l’opérateur de comparaison : eq, ne, gt, gte, lt, lte.- eq: égal- ne: non égal- gt: plus grand que- gte: supérieur ou égal- lt: moins que- lte: inférieur ou égalValeurs possibles : eq, ne, gt, gte, lt, lte |
Yes | |
| value | chaîne ou nombre ou booléen | La valeur à comparer avec la clé d’attributs ; prend en compte les types de chaînes, de nombre ou booléens. | Yes |
CompoundFilter
Combinez plusieurs filtres en utilisant and ou or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Un ensemble de filtres à combiner. Les objets peuvent être ComparisonFilter ou CompoundFilter. |
Yes | |
| type | enum | Type d’opération : and ou or.Valeurs possibles : and, or |
Yes |
ComputerAction
Ce composant peut être l’un des suivants :
ComputerScreenshotImage
Une capture d’écran informatique utilisée avec l’outil d’utilisation informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | L’identifiant d’un fichier téléchargé contenant la capture d’écran. | No | |
| image_url | string | L’URL de l’image capture. | No | |
| type | enum | Spécifie le type d’événement. Pour une capture d’écran informatique, cette propriété est toujours définie à computer_screenshot.Valeurs possibles : computer_screenshot |
Yes |
ComputerTool
Un outil qui contrôle un ordinateur virtuel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | La hauteur de l’écran de l’ordinateur. |
Yes | |
| display_width | number | La largeur de l’écran de l’ordinateur. |
Yes | |
| environment | enum | Le type d’environnement informatique à contrôler. Valeurs possibles : mac, windows, ubuntu, browser |
Yes | |
| type | enum | Le type d’outil d’utilisation informatique. Toujours computer_use_preview.Valeurs possibles : computer-use-preview |
Yes |
ComputerToolCall
Un appel à un outil d’utilisation informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Un identifiant utilisé lors de la réponse à l’appel de l’outil avec une sortie. |
Yes | |
| id | string | L’identifiant unique de l’appel informatique. | Yes | |
| pending_safety_checks | array | Les contrôles de sécurité en attente pour l’appel informatique. |
Yes | |
| status | enum | Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
Yes | |
| type | enum | Le type d’appel informatique. Toujours computer_call.Valeurs possibles : computer_call |
Yes |
ComputerToolCallOutput
La sortie d’un appel d’outil informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Les contrôles de sécurité rapportés par l’API qui ont été confirmés par le développeur. |
No | |
| call_id | string | L’ID de l’appel de l’outil informatique qui a produit la sortie. |
Yes | |
| id | string | L’ID de l’outil informatique appelle la sortie. |
No | |
| output | ComputerScreenshotImage | Une capture d’écran informatique utilisée avec l’outil d’utilisation informatique. |
Yes | |
| status | enum | L’état du message d’entrée. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.Valeurs possibles : computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Les contrôles de sécurité rapportés par l’API qui ont été confirmés par le développeur. |
No | |
| call_id | string | L’ID de l’appel de l’outil informatique qui a produit la sortie. |
Yes | |
| id | string | L’identifiant unique de la sortie de l’outil d’appel informatique. |
Yes | |
| output | ComputerScreenshotImage | Une capture d’écran informatique utilisée avec l’outil d’utilisation informatique. |
Yes | |
| status | enum | L’état du message d’entrée. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type de sortie de l’appel de l’outil informatique. Toujours computer_call_output.Valeurs possibles : computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Un contrôle de sécurité en attente pour l’appel informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Le type de contrôle de sécurité en attente. | Yes | |
| id | string | L’identification du contrôle de sécurité en cours. | Yes | |
| message | string | Détails sur le contrôle de sécurité en cours. | Yes |
Content
Contenus d’entrée et de sortie multimodaux.
Ce composant peut être l’un des suivants :
Coordinate
Une paire de coordonnées x/y, par { x: 100, y: 200 }exemple .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères. |
No | |
| model | string | Modèle utilisé pour générer les réponses. | No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | chaîne ou tableau | Texte, image ou fichier dans le modèle, utilisé pour générer une réponse. | Yes | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses. |
No | |
| max_output_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement. |
No | |
| parallel_tool_calls | boolean | Permettre au modèle d’exécuter des appels d’outils en parallèle. |
No | True |
| previous_response_id | string | L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. | No | |
| store | boolean | Savoir s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via API. |
No | True |
| stream | boolean | Si elle est réglée sur true, les données de réponse du modèle seront diffusées au client au fur et à mesure de leur génération via des événements envoyés par le serveur. | No | False |
| text | object | Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Un objet spécifiant le format que le modèle doit produire. La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut est { "type": "text" } sans options supplémentaires.Non recommandé pour le gpt-4o et les modèles plus récents : En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent. |
No | |
| tool_choice | OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils | Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler. |
No | |
| tools | array | Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir au modèle sont : - Outils intégrés |
No | |
| truncation | enum | La stratégie de troncature à utiliser pour la réponse du modèle. - auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre de contexte du modèle, le modèle tronquera le Réponse pour s’adapter à la fenêtre contextuelle en déposant des éléments d’entrée au milieu de la conversation. - disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.Valeurs possibles : auto, disabled |
No |
DoubleClick
Un double clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de double clic, cette propriété est toujours fixée à double_click.Valeurs possibles : double_click |
Yes | |
| x | integer | La coordonnée x où le double-clic a eu lieu. |
Yes | |
| y | integer | La coordonnée y où le double-clic a eu lieu. |
Yes |
Drag
Un mouvement de traînée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Un tableau de coordonnées représentant le chemin de l’action de traînée. Les coordonnées apparaîtront sous forme d’un tableau d’objets, par exemple[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de traînée, cette propriété est toujours fixée à drag.Valeurs possibles : drag |
Yes |
EasyInputMessage
Un message d’entrée dans le modèle avec un rôle indiquant l’instruction suivant la hiérarchie. Les instructions données avec le developer rôle ou system ont la priorité sur les instructions données avec le user rôle. Les messages avec ce assistant rôle sont supposés avoir été générés par le modèle lors d’interactions précédentes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou InputMessageContentList | Texte d’entrée texte ou audio au modèle, utilisé pour générer une réponse. Peut aussi contenir les réponses des anciens assistants. |
Yes | |
| role | enum | Le rôle de l’entrée du message. L’un des user, assistant, system, ou developer.Valeurs possibles : user, assistant, system, developer |
Yes | |
| type | enum | Le type de message d’entrée. Toujours message.Valeurs possibles : message |
No |
FileCitation
Une citation pour un dossier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | L’ID du dossier. |
Yes | |
| index | integer | L’index du fichier dans la liste des fichiers. |
Yes | |
| type | enum | Le type de citation du dossier. Toujours file_citation.Valeurs possibles : file_citation |
Yes |
FilePath
Un chemin vers un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | L’ID du dossier. |
Yes | |
| index | integer | L’index du fichier dans la liste des fichiers. |
Yes | |
| type | enum | Le type de chemin du fichier. Toujours file_path.Valeurs possibles : file_path |
Yes |
FileSearchRanker
Le classeur à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, il utilisera le auto classeur.
| Property | Value |
|---|---|
| Description | Le classeur à utiliser pour la recherche de fichiers. Si ce n’est pas spécifié, il utilisera le auto classeur. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Un outil qui recherche du contenu pertinent à partir de fichiers téléchargés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtre de comparaison ou filtre composé | Un filtre à appliquer basé sur les attributs du fichier. | No | |
| max_num_results | integer | Le nombre maximal de résultats à revendre. Ce nombre devrait être compris entre 1 et 50. |
No | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ ranker | enum | Le classeur à utiliser pour la recherche de fichiers. Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Le seuil de score pour la recherche de fichiers, un nombre compris entre 0 et 1. Les chiffres proches de 1 tenteront de ne fournir que les résultats les plus pertinents, mais peuvent en donner moins. |
No | 0 |
| type | enum | Le type de l’outil de recherche de fichiers. Toujours file_search.Valeurs possibles : file_search |
Yes | |
| vector_store_ids | array | Les identifiants du vecteur stockent pour la recherche. |
Yes |
FileSearchToolCall
Les résultats d’un appel à l’outil de recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | L’identifiant unique de l’outil de recherche de fichiers appelé. |
Yes | |
| queries | array | Les requêtes servaient à rechercher des fichiers. |
Yes | |
| results | array | Les résultats de l’outil de recherche de fichiers sont appelés. |
No | |
| status | enum | Le statut de l’outil de recherche de fichiers est appelé. L’un de in_progress, searching, incomplete ou failed,Valeurs possibles : in_progress, searching, completed, incomplete, failed |
Yes | |
| type | enum | Le type d’appel de l’outil de recherche de fichiers. Toujours file_search_call.Valeurs possibles : file_search_call |
Yes |
FunctionTool
Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Une description de la fonction. Utilisé par le modèle pour déterminer s’il faut appeler ou non la fonction. |
No | |
| name | string | Le nom de la fonction à appeler. |
Yes | |
| parameters | object | Un objet schéma JSON décrivant les paramètres de la fonction. |
Yes | |
| strict | boolean | S’il faut imposer une validation stricte des paramètres. Par défaut true. |
Yes | |
| type | enum | Le type de l’outil de fonction. Toujours function.Valeurs possibles : function |
Yes |
FunctionToolCall
Un appel à l’outil pour exécuter une fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Une chaîne JSON des arguments à transmettre à la fonction. |
Yes | |
| call_id | string | L’identifiant unique de l’appel de l’outil de fonction généré par le modèle. |
Yes | |
| id | string | L’ID unique de l’outil de fonction appelé. |
Yes | |
| name | string | Le nom de la fonction à exécuter. |
Yes | |
| status | enum | Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type d’appel de l’outil de fonction. Toujours function_call.Valeurs possibles : function_call |
Yes |
FunctionToolCallOutput
La sortie d’un appel d’outil de fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | L’identifiant unique de l’appel de l’outil de fonction généré par le modèle. |
Yes | |
| id | string | L’identifiant unique de l’outil de fonction sortie. Rempli lorsque cet élément est retourné via API. |
No | |
| output | string | Une chaîne JSON de la sortie de l’appel de l’outil de fonction. |
Yes | |
| status | enum | Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type de sortie de l’outil de fonction appel. Toujours function_call_output.Valeurs possibles : function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | L’identifiant unique de l’appel de l’outil de fonction généré par le modèle. |
Yes | |
| id | string | L’ID unique de la sortie de l’outil d’appel de fonction. |
Yes | |
| output | string | Une chaîne JSON de la sortie de l’appel de l’outil de fonction. |
Yes | |
| status | enum | Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type de sortie de l’outil de fonction appel. Toujours function_call_output.Valeurs possibles : function_call_output |
Yes |
includable
Spécifier des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont :
-
file_search_call.results: Incluez les résultats de recherche de l’outil de recherche de fichiers appelé. -
message.input_image.image_url: Inclure les URL d’image du message d’entrée. -
computer_call_output.output.image_url: Inclure les URL d’image issues de la sortie de l’appel informatique.
| Property | Value |
|---|---|
| Description | Spécifier des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont : - file_search_call.results: Incluez les résultats de recherche de l’outil de recherche de fichiers appelé.- message.input_image.image_url: Inclure les URL d’image du message d’entrée.- computer_call_output.output.image_url: Inclure les URL d’image issues de la sortie de l’appel informatique. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Une entrée audio vers le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio codées en base64. |
Yes | |
| format | enum | Le format des données audio. Les formats actuellement pris en charge sont mp3 et wav.Valeurs possibles : mp3, wav |
Yes | |
| type | enum | Le type de l’élément d’entrée. Toujours input_audio.Valeurs possibles : input_audio |
Yes |
InputContent
Ce composant peut être l’un des suivants :
InputFile
Une entrée de fichier dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Le contenu du fichier à envoyer au modèle. |
No | |
| file_id | string | L’identifiant du fichier à envoyer au modèle. |
No | |
| filename | string | Le nom du fichier à envoyer au modèle. |
No | |
| type | enum | Le type de l’élément d’entrée. Toujours input_file.Valeurs possibles : input_file |
Yes |
InputImage
Une entrée image au modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Le niveau de détail de l’image à envoyer au modèle. L’un des high, low, ou auto. Par défaut, .autoValeurs possibles : high, low, auto |
Yes | |
| file_id | string | L’identifiant du fichier à envoyer au modèle. |
No | |
| image_url | string | L’URL de l’image à envoyer au modèle. Une URL entièrement qualifiée ou une image encodée base64 dans une URL de données. |
No | |
| type | enum | Le type de l’élément d’entrée. Toujours input_image.Valeurs possibles : input_image |
Yes |
InputItem
Ce composant peut être l’un des suivants :
InputMessage
Un message d’entrée dans le modèle avec un rôle indiquant l’instruction suivant la hiérarchie. Les instructions données avec le developer rôle ou system ont la priorité sur les instructions données avec le user rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Une liste d’un ou plusieurs éléments d’entrée du modèle, contenant différents contenus types. |
Yes | |
| role | enum | Le rôle de l’entrée du message. L’un des user, system, ou developer.Valeurs possibles : user, system, developer |
Yes | |
| status | enum | Le statut de l’article. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type de message d’entrée. Toujours réglé sur message.Valeurs possibles : message |
No |
InputMessageContentList
Une liste d’un ou plusieurs éléments d’entrée du modèle, contenant différents types de contenu.
Aucune propriété définie pour ce composant.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Une liste d’un ou plusieurs éléments d’entrée du modèle, contenant différents contenus types. |
Yes | |
| id | string | L’identifiant unique de l’entrée du message. |
Yes | |
| role | enum | Le rôle de l’entrée du message. L’un des user, system, ou developer.Valeurs possibles : user, system, developer |
Yes | |
| status | enum | Le statut de l’article. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type de message d’entrée. Toujours réglé sur message.Valeurs possibles : message |
No |
InputText
Une entrée texte pour le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Le texte d’entrée du modèle. |
Yes | |
| type | enum | Le type de l’élément d’entrée. Toujours input_text.Valeurs possibles : input_text |
Yes |
Item
Élément de contenu utilisé pour générer une réponse.
Ce composant peut être l’un des suivants :
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Un identifiant interne pour un objet à référencer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | L’identifiant de l’objet à référencer. |
Yes | |
| type | enum | Le type d’objet à référencer. Toujours item_reference.Valeurs possibles : item_reference |
Yes |
ItemResource
Élément de contenu utilisé pour générer une réponse.
Ce composant peut être l’un des suivants :
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Une collection de pressions de touche que le modèle souhaite effectuer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinaison de touches que le modèle demande à presser. Il s’agit d’un tableau de chaînes, chacune représentant une tonalité. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de pression sur une touche, cette propriété est toujours définie à keypress.Valeurs possibles : keypress |
Yes |
Metadata
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères.
Aucune propriété définie pour ce composant.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères. |
No | |
| model | string | Modèle utilisé pour générer les réponses. | No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
No | 1 |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
No | 1 |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
Move
Une action de mouvement de souris.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours fixée à move.Valeurs possibles : move |
Yes | |
| x | integer | La coordonnée x à laquelle se déplacer. |
Yes | |
| y | integer | La coordonnée y à laquelle se déplacer. |
Yes |
OutputAudio
Une sortie audio du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en Base64 provenant du modèle. |
Yes | |
| transcript | string | La transcription des données audio du modèle. |
Yes | |
| type | enum | Le type de sortie audio. Toujours output_audio.Valeurs possibles : output_audio |
Yes |
OutputContent
Ce composant peut être l’un des suivants :
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Une chaîne JSON des arguments à transmettre à la fonction. |
Yes | |
| call_id | string | Un identifiant utilisé lors de la réponse à l’appel de l’outil avec une sortie. |
Yes | |
| content | array | Contenu du texte de raisonnement. |
Yes | |
| id | string | L’identifiant unique du contenu de raisonnement. |
Yes | |
| name | string | Le nom de la fonction à exécuter. |
Yes | |
| pending_safety_checks | array | Les contrôles de sécurité en attente pour l’appel informatique. |
Yes | |
| queries | array | Les requêtes servaient à rechercher des fichiers. |
Yes | |
| results | array | Les résultats de l’outil de recherche de fichiers sont appelés. |
No | |
| role | enum | Le rôle du message de sortie. Toujours assistant.Valeurs possibles : assistant |
Yes | |
| status | enum | Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
Yes | |
| type | enum | Le type d’objet. Toujours reasoning.Valeurs possibles : reasoning |
Yes |
OutputMessage
Un message de sortie du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Le contenu du message de sortie. |
Yes | |
| id | string | L’identifiant unique du message de sortie. |
Yes | |
| role | enum | Le rôle du message de sortie. Toujours assistant.Valeurs possibles : assistant |
Yes | |
| status | enum | L’état du message d’entrée. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments d’entrée sont retournés via API.Valeurs possibles : in_progress, completed, incomplete |
Yes | |
| type | enum | Le type du message de sortie. Toujours message.Valeurs possibles : message |
Yes |
OutputText
Une sortie texte du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Les annotations de la sortie du texte. |
Yes | |
| text | string | Le texte sorti du modèle. |
Yes | |
| type | enum | Le type du texte de sortie. Toujours output_text.Valeurs possibles : output_text |
Yes |
RealtimeSessionCreateRequest
Configuration en temps réel des objets de session.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.Valeurs possibles : pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle. Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée. |
No | |
| └─ type | enum | Un type de réduction du bruit.
near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être configurée pour null s’éteindre une fois activée. La transcription audio en entrée n’est pas native au modèle, car celui-ci consomme directement l’audio. La transcription s’exécute de manière asynchrone via le point de terminaison Transcriptions et doit être traitée comme une orientation du contenu audio d’entrée plutôt que comme ce que le modèle a entendu précisément. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription. |
No | |
| └─ language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | string | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1. |
No | |
| └─ prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Pour whisper-1, l’invite est une liste de mots-clés.Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ». |
No | |
| instructions | string | Les instructions système par défaut (c’est-à-dire le message système) précédaient les appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être instruit sur le contenu et le format des réponses (par exemple « soyez extrêmement concis », « soyez amical », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple « parlez vite », « injectez de l’émotion dans votre voix », « riez fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des indications au modèle sur le comportement souhaité. Notez que le serveur définit des instructions par défaut qui seront utilisées si ce champ n’est pas défini et qui sont visibles lors de l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’un seul assistant, incluant les appels d’outils. Fournir un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour le nombre maximal de jetons disponibles pour un modèle donné. Par défaut, .inf |
No | |
| modalities | L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »]. |
No | ||
| model | string | Le nom du déploiement utilisé pour cette session. |
No | |
| output_audio_format | enum | Le format de l’audio de sortie. Les options sont pcm16, g711_ulaw, ou g711_alaw.Pour pcm16, l’audio de sortie est échantillonné à un débit de 24 kHz.Valeurs possibles : pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Pour les modèles audio, une température de 0,8 est fortement recommandée pour de meilleures performances. |
No | 0.8 |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, required, ou spécifier une fonction. |
No | auto |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement.
auto est le par défaut et est équivalent à medium.Valeurs possibles : low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Une nouvelle configuration de session en temps réel, avec une clé éphémère. Le TTL par défaut pour les touches est d’une minute.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clé éphémère retournée par l’API. | Yes | |
| └─ expires_at | integer | Heure d’expiration du jeton. Actuellement, tous les jetons expirent après une minute. |
No | |
| └─ value | string | Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps Réel. Utilisez-le dans des environnements côté client plutôt qu’un jeton API standard, qui ne devrait être utilisé que côté serveur. |
No | |
| input_audio_format | string | Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw. |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio d’entrée, par défaut désactivée et peut être configurée pour null s’éteindre une fois activée. La transcription audio en entrée n’est pas native au modèle, car celui-ci consomme directement l’audio. La transcription s’exécute de façon asynchrone via Whisper et doit être considérée comme une guidance approximative plutôt que comme la représentation comprise par le modèle. |
No | |
| └─ model | string | Le modèle à utiliser pour la whisper-1 transcription est le seul modèle actuellement pris en charge. |
No | |
| instructions | string | Les instructions système par défaut (c’est-à-dire le message système) précédaient les appels de modèle. Ce champ permet au client de guider le modèle sur les réponses souhaitées. Le modèle peut être instruit sur le contenu et le format des réponses (par exemple « soyez extrêmement concis », « agissez amical », « voici des exemples de bonnes réponses ») et sur le comportement audio (par exemple « parlez vite », « injectez de l’émotion dans votre voix », « riez fréquemment »). Les instructions ne sont pas garanties d’être suivies par le modèle, mais elles fournissent des indications au modèle sur le comportement souhaité. Notez que le serveur définit des instructions par défaut qui seront utilisées si ce champ n’est pas défini et qui sont visibles lors de l’événement session.created au début de la session. |
No | |
| max_response_output_tokens | entier ou chaîne | Nombre maximal de jetons de sortie pour une réponse d’un seul assistant, incluant les appels d’outils. Fournir un entier compris entre 1 et 4096 pour limiter les jetons de sortie, ou inf pour le nombre maximal de jetons disponibles pour un modèle donné. Par défaut, .inf |
No | |
| modalities | L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »]. |
No | ||
| output_audio_format | string | Le format de l’audio de sortie. Les options sont pcm16, g711_ulaw, ou g711_alaw. |
No | |
| temperature | number | Température d’échantillonnage pour le modèle, limitée à [0,6, 1,2]. Par défaut à 0,8. |
No | |
| tool_choice | string | Comment le modèle choisit les outils. Les options sont auto, none, required, ou spécifier une fonction. |
No | |
| tools | array | Outils (fonctions) disponibles pour le modèle. | No | |
| turn_detection | object | Configuration pour la détection de virage. On peut configurer pour null désactiver. Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur. |
No | |
| └─ prefix_padding_ms | integer | Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur. |
No | |
| └─ threshold | number | Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants. |
No | |
| └─ type | string | Seul server_vad le type de détection de virage est actuellement pris en charge. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuration d’objets de session de transcription en temps réel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | L’ensemble des éléments à inclure dans la transcription. Les articles actuellement disponibles sont : - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw.Pour pcm16, l’audio d’entrée doit être PCM 16 bits à un taux d’échantillonnage de 24 kHz, un seul canal (mono) et un ordre d’octets little-endian.Valeurs possibles : pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuration pour la réduction du bruit audio en entrée. Cela peut être configuré pour null désactiver.La réduction de bruit filtre l’audio ajouté au tampon audio d’entrée avant qu’il ne soit envoyé au VAD et au modèle. Le filtrage audio peut améliorer la précision de la détection des VAD et des virages (réduisant les faux positifs) ainsi que la performance du modèle en améliorant la perception de l’audio en entrée. |
No | |
| └─ type | enum | Un type de réduction du bruit.
near_field est pour les microphones à dialogue rapproché comme les casques, far_field pour les microphones à distance comme les ordinateurs portables ou les microphones de salle de conférence.Valeurs possibles : near_field, far_field |
No | |
| input_audio_transcription | object | Configuration pour la transcription audio en entrée. Le client peut optionnellement définir la langue et la demande de transcription, ce qui offre des conseils supplémentaires au service de transcription. |
No | |
| └─ language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | enum | Le modèle à utiliser pour la transcription, les options actuelles sont gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, et whisper-1.Valeurs possibles : gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. Pour whisper-1, l’invite est une liste de mots-clés.Pour les gpt-4o-transcribe modèles, la demande est une chaîne de texte libre, par exemple « attendez-vous à des mots liés à la technologie ». |
No | |
| modalities | L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »]. |
No | ||
| turn_detection | object | Configuration pour la détection de tour, VAD serveur ether ou VAD sémantique. Cela peut être configuré pour null désactiver, auquel cas le client doit déclencher manuellement la réponse du modèle.Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur. Le VAD sémantique est plus avancé et utilise un modèle de détection de virage (en conjonction avec le VAD) pour estimer sémantiquement si l’utilisateur a terminé de parler, puis fixe dynamiquement un délai d’attente basé sur cette probabilité. Par exemple, si l’audio de l’utilisateur s’éteint avec uhhm, le modèle obtiendra une faible probabilité de fin de tour et attendra plus longtemps que l’utilisateur continue à parler. Cela peut être utile pour des conversations plus naturelles, mais peut avoir une latence plus élevée. |
No | |
| └─ create_response | boolean | S’il faut ou non générer automatiquement une réponse lorsqu’un arrêt VAD se produit. Non disponible pour les séances de transcription. |
No | True |
| └─ eagerness | enum | Utilisé uniquement pour le semantic_vad mode. L’empressement du modèle à répondre.
low attendra plus longtemps que l’utilisateur continue de parler, high répondra plus rapidement.
auto est le par défaut et est équivalent à medium.Valeurs possibles : low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | S’il faut ou non interrompre automatiquement toute réponse en cours avec une sortie vers la conversation par défaut (c’est-à-dire conversation de auto) lorsqu’un événement de démarrage VAD se produit. Non disponible pour les séances de transcription. |
No | True |
| └─ prefix_padding_ms | integer | Utilisé uniquement pour le server_vad mode. Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Utilisé uniquement pour le server_vad mode. Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur. |
No | |
| └─ threshold | number | Utilisé uniquement pour le server_vad mode. Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants. |
No | |
| └─ type | enum | Type de détection de virage. Valeurs possibles : server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Une nouvelle configuration de session de transcription en temps réel.
Lorsqu’une session est créée sur le serveur via l’API REST, l’objet de session contient également une clé éphémère. Le TTL par défaut pour les touches est d’une minute. Cette propriété n’est pas présente lorsqu’une session est mise à jour via l’API WebSocket.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clé éphémère retournée par l’API. Présent uniquement lorsque la session est créée sur le serveur via l’API REST. |
Yes | |
| └─ expires_at | integer | Heure d’expiration du jeton. Actuellement, tous les jetons expirent après une minute. |
No | |
| └─ value | string | Clé éphémère utilisable dans les environnements clients pour authentifier les connexions à l’API Temps Réel. Utilisez-le dans des environnements côté client plutôt qu’un jeton API standard, qui ne devrait être utilisé que côté serveur. |
No | |
| input_audio_format | string | Le format de l’audio d’entrée. Les options sont pcm16, g711_ulaw, ou g711_alaw. |
No | |
| input_audio_transcription | object | Configuration du modèle de transcription. |
No | |
| └─ language | string | La langue de l’audio d’entrée. Fournir le langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| └─ model | enum | Le modèle à utiliser pour la transcription. Peut être gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.Valeurs possibles : gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un texte optionnel pour guider le style du modèle ou poursuivre un segment audio précédent. La consigne doit correspondre au langage audio. |
No | |
| modalities | L’ensemble des modalités auxquelles le modèle peut répondre. Pour désactiver l’audio, réglez cela sur [« texte »]. |
No | ||
| turn_detection | object | Configuration pour la détection de virage. On peut configurer pour null désactiver. Le VAD serveur signifie que le modèle détecte le début et la fin de la parole en fonction du volume audio et répond à la fin de la parole de l’utilisateur. |
No | |
| └─ prefix_padding_ms | integer | Quantité d’audio à inclure avant que le VAD ne détecte la parole (en millisecondes). Par défaut, c’est 300 ms. |
No | |
| └─ silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Par défaut, c’est 500ms. Avec des valeurs plus courtes, le modèle répondra plus rapidement, mais peut intervenir lors de courtes pauses de l’utilisateur. |
No | |
| └─ threshold | number | Le seuil d’activation pour le VAD (0,0 à 1,0) est par défaut de 0,5. Un seuil plus élevé nécessitera un son plus fort pour activer le modèle, et pourrait donc mieux fonctionner dans des environnements bruyants. |
No | |
| └─ type | string | Seul server_vad le type de détection de virage est actuellement pris en charge. |
No |
Reasoning
Options de configuration pour les modèles de raisonnement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse. |
Yes | medium |
| summary | enum | Un résumé du raisonnement réalisé par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. L’un des concise ou detailed.Valeurs possibles : concise, detailed |
No |
ReasoningItem
Une description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du texte de raisonnement. |
Yes | |
| id | string | L’identifiant unique du contenu de raisonnement. |
Yes | |
| status | enum | Le statut de l’objet. L’un des in_progress, completed, ou incomplete. Rempli lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, completed, incomplete |
No | |
| type | enum | Le type d’objet. Toujours reasoning.Valeurs possibles : reasoning |
Yes |
Refusal
Un refus de la part du mannequin.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | L’explication du refus du modèle. |
Yes | |
| type | enum | Le type de refus. Toujours refusal.Valeurs possibles : refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Horodatage Unix (en quelques secondes) de la création de cette Réponse. |
Yes | |
| error | ResponseError | Un objet d’erreur retourné lorsque le modèle ne génère pas de Réponse. |
Yes | |
| id | string | Identifiant unique pour cette réponse. |
Yes | |
| incomplete_details | object | Détails sur les raisons pour lesquelles la réponse est incomplète. |
Yes | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses. |
Yes | |
| max_output_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de la conversation. |
No | |
| metadata | Metadata | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères. |
Yes | |
| model | string | Modèle utilisé pour générer les réponses. | Yes | |
| object | enum | Le type d’objet de cette ressource - toujours défini à response.Valeurs possibles : response |
Yes | |
| output | array | Un ensemble d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Plutôt que d’accéder au premier élément du output tableau et de supposer qu’il s’agit d’un assistant message contenant le contenu généré par le modèle, vous pourriez envisager d’utiliser la output_text propriété prise en charge dans les SDK. |
Yes | |
| output_text | string | Propriété de commodité uniquement SDK qui contient le texte agrégé sorti de tous output_text les éléments du output tableau, s’il y en a un. Pris en charge dans les SDK Python et JavaScript. |
No | |
| parallel_tool_calls | boolean | Permettre au modèle d’exécuter des appels d’outils en parallèle. |
Yes | True |
| previous_response_id | string | L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. |
No | |
| status | enum | L’état de la génération de la réponse. L’un des completed, failed, in_progress, ou incomplete.Valeurs possibles : completed, failed, in_progress, incomplete |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Des valeurs plus élevées comme 0,8 rendent la sortie plus aléatoire, tandis que des valeurs plus basses comme 0,2 la rendent plus ciblée et déterministe. Nous recommandons généralement de modifier cela, ou top_p pas les deux. |
Yes | 1 |
| text | object | Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Un objet spécifiant le format que le modèle doit produire. La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut est { "type": "text" } sans options supplémentaires.Non recommandé pour le gpt-4o et les modèles plus récents : En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent. |
No | |
| tool_choice | OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils | Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler. |
Yes | |
| tools | array | Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir au modèle sont : - Outils intégrés |
Yes | |
| top_p | number | Une alternative à l’échantillonnage par température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Ainsi, 0,1 signifie que seuls les jetons composant la 10e première masse de probabilité% sont pris en compte. Nous recommandons généralement de modifier cela, ou temperature pas les deux. |
Yes | 1 |
| truncation | enum | La stratégie de troncature à utiliser pour la réponse du modèle. - auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre contextuelle du modèle, le modèle tronquera la réponse pour s’adapter à la fenêtre de contexte en supprimant des éléments d’entrée au milieu de la conversation. - disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| usage | ResponseUsage | Représente les détails d’utilisation des jetons, y compris les jetons d’entrée, de sortie, une répartition des jetons de sortie et le total des jetons utilisés. |
No | |
| user | string | Un identifiant unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. . |
No |
ResponseAudioDeltaEvent
Émis lorsqu’il y a une réponse audio partielle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Un morceau d’octets audio de réponse codée en Base64. |
Yes | |
| type | enum | Le type d’événement. Toujours response.audio.delta.Valeurs possibles : response.audio.delta |
Yes |
ResponseAudioDoneEvent
Émis lorsque la réponse audio est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Le type d’événement. Toujours response.audio.done.Valeurs possibles : response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Émis lorsqu’il y a une transcription partielle de l’audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | La transcription partielle de la réponse audio. |
Yes | |
| type | enum | Le type d’événement. Toujours response.audio.transcript.delta.Valeurs possibles : response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Émis lorsque la transcription audio complète est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Le type d’événement. Toujours response.audio.transcript.done.Valeurs possibles : response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Émis lorsqu’un extrait de code partiel est ajouté par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Le fragment partiel de code ajouté par l’interpréteur de code. |
Yes | |
| output_index | integer | L’index de l’élément de sortie appelé par l’interpréteur de code est en cours. |
Yes | |
| type | enum | Le type d’événement. Toujours response.code_interpreter_call.code.delta.Valeurs possibles : response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Émis lorsque la sortie du extrait de code est finalisée par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Le dernier extrait de code produit par l’interpréteur de code. |
Yes | |
| output_index | integer | L’index de l’élément de sortie appelé par l’interpréteur de code est en cours. |
Yes | |
| type | enum | Le type d’événement. Toujours response.code_interpreter_call.code.done.Valeurs possibles : response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Émis lorsque l’appel de l’interpréteur de code est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel à l’outil pour exécuter du code. |
Yes | |
| output_index | integer | L’index de l’élément de sortie appelé par l’interpréteur de code est en cours. |
Yes | |
| type | enum | Le type d’événement. Toujours response.code_interpreter_call.completed.Valeurs possibles : response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Émis lorsqu’un appel d’interpréteur de code est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel à l’outil pour exécuter du code. |
Yes | |
| output_index | integer | L’index de l’élément de sortie appelé par l’interpréteur de code est en cours. |
Yes | |
| type | enum | Le type d’événement. Toujours response.code_interpreter_call.in_progress.Valeurs possibles : response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Émis lorsque l’interpréteur de code interprète activement le fragment de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Un appel à l’outil pour exécuter du code. |
Yes | |
| output_index | integer | L’index de l’élément de sortie appelé par l’interpréteur de code est en cours. |
Yes | |
| type | enum | Le type d’événement. Toujours response.code_interpreter_call.interpreting.Valeurs possibles : response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Émis lorsque la réponse du modèle est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Le type d’événement. Toujours response.completed.Valeurs possibles : response.completed |
Yes |
ResponseContentPartAddedEvent
Émis lorsqu’une nouvelle partie de contenu est ajoutée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L’index de la partie contenu ajoutée. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie auquel la partie contenu a été ajoutée. |
Yes | |
| output_index | integer | L’indice de l’élément de sortie auquel la partie contenu a été ajoutée. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Le type d’événement. Toujours response.content_part.added.Valeurs possibles : response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Émis lorsqu’une partie de contenu est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L’index du contenu qui est réalisé. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie auquel la partie contenu a été ajoutée. |
Yes | |
| output_index | integer | L’indice de l’élément de sortie auquel la partie contenu a été ajoutée. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | Le type d’événement. Toujours response.content_part.done.Valeurs possibles : response.content_part.done |
Yes |
ResponseCreatedEvent
Un événement émis lors de la création d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Le type d’événement. Toujours response.created.Valeurs possibles : response.created |
Yes |
ResponseError
Un objet d’erreur retourné lorsque le modèle ne génère pas de Réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | Le code d’erreur de la réponse. |
Yes | |
| message | string | Une description lisible par l’homme de l’erreur. |
Yes |
ResponseErrorCode
Le code d’erreur de la réponse.
| Property | Value |
|---|---|
| Description | Le code d’erreur de la réponse. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Émis lorsqu’une erreur survient.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Le code d’erreur. |
Yes | |
| message | string | Le message d’erreur. |
Yes | |
| param | string | Le paramètre d’erreur. |
Yes | |
| type | enum | Le type d’événement. Toujours error.Valeurs possibles : error |
Yes |
ResponseFailedEvent
Un événement émis lorsqu’une réponse échoue.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Le type d’événement. Toujours response.failed.Valeurs possibles : response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Émis lorsqu’un appel de recherche de fichier est terminé (résultats trouvés).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | L’identifiant de l’élément de sortie que l’appel de recherche de fichier est initié. |
Yes | |
| output_index | integer | L’index de l’élément de sortie que la recherche de fichier appelle est lancé. |
Yes | |
| type | enum | Le type d’événement. Toujours response.file_search_call.completed.Valeurs possibles : response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Émis lors de l’initiation d’un appel de recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | L’identifiant de l’élément de sortie que l’appel de recherche de fichier est initié. |
Yes | |
| output_index | integer | L’index de l’élément de sortie que la recherche de fichier appelle est lancé. |
Yes | |
| type | enum | Le type d’événement. Toujours response.file_search_call.in_progress.Valeurs possibles : response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Émis lorsqu’une recherche de fichier est en cours de recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | L’identifiant de l’élément de sortie que l’appel de recherche de fichier est initié. |
Yes | |
| output_index | integer | L’index de l’élément de sortie que la recherche de fichier appelle en recherche. |
Yes | |
| type | enum | Le type d’événement. Toujours response.file_search_call.searching.Valeurs possibles : response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Émis lorsqu’il existe un delta partiel d’arguments d’appel de fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Les arguments d’appel de fonction delta qui sont ajoutés. |
Yes | |
| item_id | string | L’ID de l’élément de sortie auquel s’ajoute le delta des arguments d’appel de fonction. |
Yes | |
| output_index | integer | L’indice de l’élément de sortie auquel les arguments d’appel de fonction sont ajoutés. |
Yes | |
| type | enum | Le type d’événement. Toujours response.function_call_arguments.delta.Valeurs possibles : response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Émis lorsque les arguments d’appel de fonction sont finalisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Les arguments de l’appel de fonction. | Yes | |
| item_id | string | L’identité de l’objet. | Yes | |
| output_index | integer | L’indice de l’élément sorti. | Yes | |
| type | enum | Valeurs possibles : response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Émis lorsque la réponse est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Le type d’événement. Toujours response.in_progress.Valeurs possibles : response.in_progress |
Yes |
ResponseIncompleteEvent
Un événement émis lorsqu’une réponse se termine comme incomplète.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | Le type d’événement. Toujours response.incomplete.Valeurs possibles : response.incomplete |
Yes |
responseItemList
Une liste des éléments de réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Une liste des éléments utilisés pour générer cette réponse. | Yes | |
| first_id | string | L’identifiant du premier élément de la liste. | Yes | |
| has_more | boolean | S’il y a d’autres articles disponibles. | Yes | |
| last_id | string | L’ID du dernier élément de la liste. | Yes | |
| object | enum | Le type d’objet retourné doit être list.Valeurs possibles : list |
Yes |
ResponseModalities
Types de sortie que vous souhaitez que le modèle génère. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :
["text"]
Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander à ce modèle de générer à la fois des réponses textuelles et audio, vous pouvez utiliser :
["text", "audio"]
Aucune propriété définie pour ce composant.
ResponseModalitiesTextOnly
Types de sortie que vous souhaitez que le modèle génère. La plupart des modèles sont capables de générer du texte, ce qui est le principe par défaut :
["text"]
Cette API prendra bientôt en charge d’autres modalités de sortie, y compris l’audio et les images.
Aucune propriété définie pour ce composant.
ResponseOutputItemAddedEvent
Émis lorsqu’un nouvel élément de sortie est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | L’indice de l’élément de sortie ajouté. |
Yes | |
| type | enum | Le type d’événement. Toujours response.output_item.added.Valeurs possibles : response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Émis lorsqu’un élément de sortie est marqué comme terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | L’index de l’élément de sortie marqué comme terminé. |
Yes | |
| type | enum | Le type d’événement. Toujours response.output_item.done.Valeurs possibles : response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lorsqu’on utilise avec previous_response_id, les instructions d’une réponse précédente ne seront pas relayées vers la réponse suivante. Cela facilite le remplacement des messages système (ou développeur) par de nouvelles réponses. |
No | |
| max_output_tokens | integer | Une borne supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et l’état de la conversation. |
No | |
| previous_response_id | string | L’identifiant unique de la réponse précédente au modèle. Utilisez cela pour créer des conversations sur plusieurs tours. | No | |
| reasoning | Reasoning | Options de configuration pour les modèles de raisonnement. |
No | |
| text | object | Options de configuration pour une réponse texte du modèle. Cela peut être du texte brut ou des données JSON structurées. Learn more: - entrées et sorties de texte - Sorties structurées |
No | |
| └─ format | TextResponseFormatConfiguration | Un objet spécifiant le format que le modèle doit produire. La configuration { "type": "json_schema" } permet de créer des sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut est { "type": "text" } sans options supplémentaires.Non recommandé pour le gpt-4o et les modèles plus récents : En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent. |
No | |
| tool_choice | OptionsDeDeChoix-de-Outils, TypesDeDeChoix-d’Outils, ou FonctionChoixDeChoix-deOutils | Comment le modèle doit choisir quel outil (ou outils) utiliser lors de la génération d’une réponse. Voir le tools paramètre pour voir comment spécifier quels outils le modèle peut appeler. |
No | |
| tools | array | Un ensemble d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier quel outil utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir au modèle sont : - Outils intégrés |
No | |
| truncation | enum | La stratégie de troncature à utiliser pour la réponse du modèle. - auto: Si le contexte de cette réponse et des précédentes dépasse la taille de la fenêtre contextuelle du modèle, le modèle tronquera la réponse pour s’adapter à la fenêtre de contexte en supprimant des éléments d’entrée au milieu de la conversation. - disabled (par défaut) : Si une réponse de modèle dépasse la taille de la fenêtre de contexte pour un modèle, la requête échouera avec une erreur 400.Valeurs possibles : auto, disabled |
No |
ResponseRefusalDeltaEvent
Émis lorsqu’il y a un texte de refus partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L’index de la partie de contenu à laquelle le texte de refus est ajouté. |
Yes | |
| delta | string | Le texte de refus qui est ajouté. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie auquel le texte de refus est ajouté. |
Yes | |
| output_index | integer | L’index de l’élément de sortie auquel le texte de refus est ajouté. |
Yes | |
| type | enum | Le type d’événement. Toujours response.refusal.delta.Valeurs possibles : response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Émis lorsque le texte de refus est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L’index du contenu indique que le texte de refus est finalisé. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie indiquant que le texte de refus est finalisé. |
Yes | |
| output_index | integer | L’index de l’élément de sortie où le texte de refus est finalisé. |
Yes | |
| refusal | string | Le texte de refus qui est finalisé. |
Yes | |
| type | enum | Le type d’événement. Toujours response.refusal.done.Valeurs possibles : response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | L’index de l’annotation ajoutée. |
Yes | |
| arguments | string | Les arguments de l’appel de fonction. | Yes | |
| code | string | Le code d’erreur. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Un appel à l’outil pour exécuter du code. |
Yes | |
| content_index | integer | L’index du contenu où le texte est finalisé. |
Yes | |
| delta | string | Le texte delta qui a été ajouté. |
Yes | |
| item | OutputItem | L’élément de sortie marqué comme terminé. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie où le contenu du texte est finalisé. |
Yes | |
| message | string | Le message d’erreur. |
Yes | |
| output_index | integer | L’index de l’élément de sortie où le contenu du texte est finalisé. |
Yes | |
| param | string | Le paramètre d’erreur. |
Yes | |
| part | OutputContent | La partie contenu qui est terminée. |
Yes | |
| refusal | string | Le texte de refus qui est finalisé. |
Yes | |
| response | response | La réponse était incomplète. |
Yes | |
| text | string | Le contenu textuel qui est finalisé. |
Yes | |
| type | enum | Le type d’événement. Toujours response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Émis lorsqu’une annotation de texte est ajoutée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | L’index de l’annotation ajoutée. |
Yes | |
| content_index | integer | L’index de la partie de contenu à laquelle l’annotation de texte a été ajoutée. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie auquel l’annotation de texte a été ajoutée. |
Yes | |
| output_index | integer | L’index de l’élément de sortie auquel l’annotation de texte a été ajoutée. |
Yes | |
| type | enum | Le type d’événement. Toujours response.output_text.annotation.added.Valeurs possibles : response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Émis lorsqu’il y a un delta de texte supplémentaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L’index de la partie contenu à laquelle le delta de texte a été ajouté. |
Yes | |
| delta | string | Le texte delta qui a été ajouté. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie auquel le delta de texte a été ajouté. |
Yes | |
| output_index | integer | L’index de l’élément de sortie auquel le delta de texte a été ajouté. |
Yes | |
| type | enum | Le type d’événement. Toujours response.output_text.delta.Valeurs possibles : response.output_text.delta |
Yes |
ResponseTextDoneEvent
Émis lorsque le contenu textuel est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | L’index du contenu où le texte est finalisé. |
Yes | |
| item_id | string | L’identifiant de l’élément de sortie où le contenu du texte est finalisé. |
Yes | |
| output_index | integer | L’index de l’élément de sortie où le contenu du texte est finalisé. |
Yes | |
| text | string | Le contenu textuel qui est finalisé. |
Yes | |
| type | enum | Le type d’événement. Toujours response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
ResponseUsage
Représente les détails d’utilisation des jetons, y compris les jetons d’entrée, de sortie, une répartition des jetons de sortie et le total des jetons utilisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Le nombre de jetons d’entrée. | Yes | |
| output_tokens | integer | Le nombre de jetons de sortie. | Yes | |
| output_tokens_details | object | Une analyse détaillée des jetons de sortie. | Yes | |
| └─ reasoning_tokens | integer | Le nombre de jetons de raisonnement. | No | |
| total_tokens | integer | Le nombre total de jetons utilisés. | Yes |
Screenshot
Une action de capture d’écran.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.Valeurs possibles : screenshot |
Yes |
Scroll
Une action de défilement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | La distance de défilement horizontal. |
Yes | |
| scroll_y | integer | La distance de défilement vertical. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours fixée à scroll.Valeurs possibles : scroll |
Yes | |
| x | integer | La coordonnée x où le défilement s’est produit. |
Yes | |
| y | integer | La coordonnée y où le défilement a eu lieu. |
Yes |
StopConfiguration
Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contiendra pas la séquence d’arrêt.
Ce composant peut être l’un des suivants :
TextResponseFormatConfiguration
Un objet spécifiant le format que le modèle doit produire.
La configuration { "type": "json_schema" } permet des sorties structurées, qui garantissent que le modèle correspond à votre schéma JSON fourni.
Le format par défaut est { "type": "text" } sans options supplémentaires.
Non recommandé pour le gpt-4o et les modèles plus récents :
En réglant pour { "type": "json_object" } activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide. L’utilisation json_schema est préférée pour les modèles qui le supportent.
Ce composant peut être l’un des suivants :
TextResponseFormatJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées. En savoir plus sur les sorties structurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Une description du format de réponse, utilisée par le modèle pour déterminer comment répondre dans ce format. |
No | |
| name | string | Le nom du format de la réponse. Doit être de A à Z, de A à Z, de 0 à 9, ou contenir des sous-traits et des titres, avec une longueur maximale de 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | Le schéma pour le format de réponse est décrit comme un objet de schéma JSON. | Yes | |
| strict | boolean | S’il faut activer une stricte adhésion au schéma lors de la génération de la sortie. Si le modèle est réglé sur vrai, le modèle suivra toujours exactement le schéma défini sur le schema terrain. Seul un sous-ensemble de JSON Schema est pris en charge lorsque strict est true. |
No | False |
| type | enum | Le type de format de réponse défini. Toujours json_schema.Valeurs possibles : json_schema |
Yes |
Tool
Ce composant peut être l’un des suivants :
ToolChoiceFunction
Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Le nom de la fonction à appeler. | Yes | |
| type | enum | Pour l’appel de fonction, le type est toujours function.Valeurs possibles : function |
Yes |
ToolChoiceOptions
Contrôle quel outil (le cas échéant) est appelé par le modèle.
none signifie que le modèle n’appellera aucun outil et générera un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
| Property | Value |
|---|---|
| Description | Contrôle quel outil (le cas échéant) est appelé par le modèle.none signifie que le modèle n’appellera aucun outil et générera un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Indique que le modèle doit utiliser un outil intégré pour générer une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Le type d’outil hébergé que le modèle doit utiliser. Les valeurs autorisées sont : - file_search- computer_use_previewValeurs possibles : file_search, computer_use_preview |
Yes |
Type
Une action pour taper un texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Le texte à taper. |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de type, cette propriété est toujours fixée à type.Valeurs possibles : type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres. |
Yes |
UrlCitation
Une citation pour une ressource web utilisée pour générer une réponse modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | L’index du dernier caractère de la citation de l’URL dans le message. |
Yes | |
| start_index | integer | L’index du premier caractère de la citation de l’URL dans le message. |
Yes | |
| title | string | Le titre de la ressource web. |
Yes | |
| type | enum | Le type de la citation de l’URL. Toujours url_citation.Valeurs possibles : url_citation |
Yes | |
| url | string | L’URL de la ressource web. |
Yes |
VectorStoreFileAttributes
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres.
Aucune propriété définie pour ce composant.
VectorStoreFileContentResponse
Représente le contenu analysé d’un fichier de stockage vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Contenu analysé du fichier. | Yes | |
| has_more | boolean | Indique s’il y a plus de pages de contenu à récupérer. | Yes | |
| next_page | string | Le jeton pour la page suivante, s’il y en a. | Yes | |
| object | enum | Le type d’objet, qui est toujours vector_store.file_content.pageValeurs possibles : vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtre de comparaison ou filtre composé | Un filtre à appliquer basé sur les attributs du fichier. | No | |
| max_num_results | integer | Le nombre maximal de résultats à revendre. Ce nombre devrait être compris entre 1 et 50. | No | 10 |
| query | chaîne ou tableau | Une chaîne de requête pour une recherche | Yes | |
| ranking_options | object | Options de classement pour la recherche. | No | |
| └─ ranker | enum | Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | S’il faut réécrire la requête en langage naturel pour la recherche vectorielle. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Le contenu du texte est revenu de la recherche. | Yes | |
| type | enum | Le type de contenu. Valeurs possibles : text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré, et pour interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes d’une longueur maximale de 64 caractères. Les valeurs sont des chaînes d’une longueur maximale de 512 caractères, des booléens ou des nombres. |
Yes | |
| content | array | Des morceaux de contenu du fichier. | Yes | |
| file_id | string | L’identifiant du fichier de stockage vectoriel. | Yes | |
| filename | string | Le nom du fichier de stockage vectoriel. | Yes | |
| score | number | Le score de similarité pour le résultat. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | La liste des éléments de résultats de recherche. | Yes | |
| has_more | boolean | Indique s’il y a d’autres résultats à obtenir. | Yes | |
| next_page | string | Le jeton pour la page suivante, s’il y en a. | Yes | |
| object | enum | Le type d’objet, qui est toujours vector_store.search_results.pageValeurs possibles : vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
Aucune propriété définie pour ce composant.
Wait
Une action d’attente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie à wait.Valeurs possibles : wait |
Yes |
ReasoningEffort
Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse.
| Property | Value |
|---|---|
| Description | Limite l’effort de raisonnement pour les modèles de raisonnement. Les valeurs actuellement prises en charge sont low, medium, et high. Réduire l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés pour raisonner dans une réponse. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Apparaît lorsqu’une erreur survient. Cela peut arriver à cause d’une erreur interne du serveur ou d’un délai d’attente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
événement Enum : ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Ça se produit lorsqu’un flux se termine.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
événement Enum : DoneEventEnum
| Value | Description |
|---|---|
| done |
data Enum : DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Apprenez-en plus sur les modèles et l’ajustement fin avec l’API REST. En savoir plus sur les modèles sous-jacents qui alimentent Azure OpenAI.