Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article fournit des détails sur les points de terminaison de l’API REST d’inférence pour Azure OpenAI.
Inférence du plan de données
Le reste de l’article décrit notre nouvelle version préliminaire de l’API v1 du Azure spécification d’inférence du plan de données OpenAI. En savoir plus dans notre guide de cycle de vie des API.
Si vous recherchez de la documentation sur la dernière version de l’API de disponibilité générale v1, reportez-vous à la dernière API d’inférence du plan de données ga
Create speech
POST {endpoint}/openai/v1/audio/speech?api-version=preview
Génère l’audio de synthèse vocale à partir du texte d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de Microsoft’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texte pour lequel générer l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| instructions | string | Contrôlez la voix de votre audio généré avec des instructions supplémentaires. Ne fonctionne pas avec tts-1 ou tts-1-hd. |
No | |
| model | string | Modèle à utiliser pour cette demande de synthèse vocale. | Yes | |
| response_format | object | Formats de sortie audio pris en charge pour la synthèse vocale. | No | |
| speed | number | Vitesse de la parole pour l’audio généré. Les valeurs sont valides dans la plage comprise entre 0,25 et 4.0, avec 1,0 les valeurs par défaut et supérieures correspondant à la reconnaissance vocale plus rapide. | No | 1 |
| stream_format | enum | Format dans lequel diffuser l’audio. Les formats pris en charge sont sse et audio.
sse n’est pas pris en charge pour tts-1 ou tts-1-hd.Valeurs possibles : sse, audio |
No | |
| voice | object | Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Synthétise l’audio à partir du texte fourni.
POST {endpoint}/openai/v1/audio/speech?api-version=preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3",
"model": "tts-1"
}
Réponses : Code d’état : 200
{
"body": "101010101"
}
Create transcription
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
Transcrit l’audio dans la langue d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | No | ||
| └─ prefix_padding_ms | integer | Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). | No | 300 |
| └─ silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. | No | 200 |
| └─ threshold | number | Seuil de sensibilité (0,0 à 1,0) pour la détection d’activité vocale. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. | No | 0.5 |
| └─ type | enum | Doit être défini pour activer la segmentation manuelle à server_vad l’aide du VAD côté serveur.Valeurs possibles : server_vad |
No | |
| file | string | Yes | ||
| filename | string | Nom de fichier facultatif ou identificateur descriptif à associer aux données audio. | No | |
| include[] | array | Informations supplémentaires à inclure dans la réponse de transcription.
logprobs retourne les probabilités de journal des jetons dans la réponse pour comprendre la confiance du modèle dans la transcription.
logprobs fonctionne uniquement avec response_format défini sur json et uniquement avec les modèles gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. |
No | |
| language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| model | string | Modèle à utiliser pour cette demande de transcription. | No | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | No | |
| response_format | object | No | ||
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. Remarque : La diffusion en continu n’est pas prise en charge pour le whisper-1 modèle et sera ignorée. |
No | False |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
| timestamp_granularities[] | array | Granularités d’horodatage à remplir pour cette transcription.
response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranscriptionResponse | |
| text/plain | string |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Obtient le texte transcrit et les métadonnées associées à partir de données audio parlées fournies.
POST {endpoint}/openai/v1/audio/transcriptions?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Réponses : Code d’état : 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Create translation
POST {endpoint}/openai/v1/audio/translations?api-version=preview
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Yes | ||
| filename | string | Nom de fichier facultatif ou identificateur descriptif à associer aux données audio | No | |
| model | string | Modèle à utiliser pour cette demande de traduction. | No | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. | No | |
| response_format | object | No | ||
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureAudioTranslationResponse | |
| text/plain | string |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Obtient le texte transcrit en langue anglaise et les métadonnées associées à partir de données audio parlées fournies.
POST {endpoint}/openai/v1/audio/translations?api-version=preview
{
"file": "<binary audio data>",
"model": "whisper-1",
"response_format": "text"
}
Réponses : Code d’état : 200
{
"body": "plain text when requesting text, srt, or vtt"
}
Créer une saisie semi-automatique de conversation
POST {endpoint}/openai/v1/chat/completions?api-version=preview
Crée une saisie semi-automatique de conversation.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.Valeurs possibles : wav, , aacmp3, flac, opuspcm16 |
No | |
| └─ voice | object | No | ||
| data_sources | array | Sources de données à utiliser pour la fonctionnalité Sur vos données, exclusives à Azure OpenAI. | No | |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. | No | 0 |
| function_call | enum | La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.Valeurs possibles : none, auto |
No | |
| functions | array | Déconseillé en faveur de tools.Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. | No | None |
| logprobs | boolean | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . |
No | False |
| max_completion_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation. Cette valeur peut être utilisée pour contrôler les coûts du texte généré via l’API. Cette valeur est désormais déconseillée en faveur des modèles de max_completion_tokenssérie o1 et n’est pas compatible avec les modèles de série o1. |
No | |
| messages | array | Liste des messages comprenant la conversation jusqu’à présent. Selon le modèle que vous utilisez, différents types de messages (modalités) sont pris en charge, tels que le texte, les images et l’audio. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| modalities | object | Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :["text", "audio"] |
No | |
| model | string | Identificateur de déploiement de modèle à utiliser pour la demande d’achèvement de conversation. | Yes | |
| n | integer | Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. |
No | 1 |
| parallel_tool_calls | object | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | |
| prediction | object | Représentation de base de la sortie prédite à partir d’un modèle. | No | |
| └─ type | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | No | 0 |
| reasoning_effort | object |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| response_format | object | No | ||
| └─ type | enum | Valeurs possibles : text, , json_objectjson_schema |
No | |
| seed | integer | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end. |
No | |
| stop | object | Non pris en charge avec les derniers modèles o3 de raisonnement et o4-mini.Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
No | |
| store | boolean | Indique s’il faut stocker ou non la sortie de cette demande de saisie semi-automatique de conversation pour une utilisation dans les produits de validation ou d’évaluation de modèle. | No | False |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. | No | False |
| stream_options | object | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | |
| └─ include_usage | boolean | Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide.Tous les autres blocs incluent également un usage champ, mais avec une valeur Null.
NOTE: Si le flux est interrompu, vous ne recevez peut-être pas le bloc d’utilisation final qui contient l’utilisation totale du jeton pour la demande. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils.La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si les outils sont présents. |
No | |
| tools | array | Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. | No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No | |
| user_security_context | AzureUserSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureCreateChatCompletionResponse | |
| text/event-stream | AzureCreateChatCompletionStreamResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Crée une saisie semi-automatique pour l’invite fournie, les paramètres et le modèle choisi.
POST {endpoint}/openai/v1/chat/completions?api-version=preview
{
"model": "gpt-4o-mini",
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Réponses : Code d’état : 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh?..."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Create embedding
POST {endpoint}/openai/v1/embeddings?api-version=preview
Crée un vecteur d’incorporation représentant le texte d’entrée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. |
No | |
| encoding_format | enum | Format dans lequel retourner les incorporations. Peut être soit float ou base64.Valeurs possibles : float, base64 |
No | |
| input | chaîne ou tableau | Yes | ||
| model | string | Modèle à utiliser pour la demande d’incorporation. | Yes | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Retournez les incorporations pour une invite donnée.
POST {endpoint}/openai/v1/embeddings?api-version=preview
{
"model": "text-embedding-ada-002",
"input": [
"this is a test"
]
}
Réponses : Code d’état : 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196,
-0.020365695,
-0.009631885,
-0.007647093,
0.0033837722,
-0.026764825,
-0.010501476,
0.020219658,
0.024640633,
-0.0066912062,
-0.036456455,
-0.0040923897,
-0.013966565,
0.017816665,
0.005366905,
0.022835068,
0.0103488,
-0.0010811808,
-0.028942121,
0.0074280356,
-0.017033368,
0.0074877786,
0.021640211,
0.002499245,
0.013316032,
0.0021524043,
0.010129742,
0.0054731146,
0.03143805,
0.014856071,
0.0023366117,
-0.0008243692,
0.022781964,
0.003038591,
-0.017617522,
0.0013309394,
0.0022154662,
0.00097414135,
0.012041516,
-0.027906578,
-0.023817508,
0.013302756,
-0.003003741,
-0.006890349,
0.0016744611
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
List evals
GET {endpoint}/openai/v1/evals?api-version=preview
Répertorier les évaluations d’un projet.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| after | query | No | string | Identificateur de la dernière valeur d’évaluation de la demande de pagination précédente. |
| limit | query | No | integer | Limite du nombre d’evals à retourner dans une seule réponse de pagination. |
| order | query | No | string Valeurs possibles : asc, desc |
Ordre de tri pour lesvals par horodatage. Utiliser asc pour l’ordre croissant ou desc pour l’ordre décroissant. |
| order_by | query | No | string Valeurs possibles : created_at, updated_at |
Les evals peuvent être triés par heure de création ou heure de dernière mise à jour. Utiliser created_at pour l’heure de création ou updated_at pour la dernière heure mise à jour. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalList |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createeval
POST {endpoint}/openai/v1/evals?api-version=preview
Créez la structure d’une évaluation qui peut être utilisée pour tester les performances d’un modèle.
Une évaluation est un ensemble de critères de test et d’une source de données. Après avoir créé une évaluation, vous pouvez l’exécuter sur différents modèles et paramètres de modèle. Nous prenons en charge plusieurs types de nuanceurs et de sources de données.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source_config | object | Yes | ||
| └─ type | OpenAI.EvalDataSourceConfigType | No | ||
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom de l’évaluation. | No | |
| statusCode | enum | Valeurs possibles : 201 |
Yes | |
| testing_criteria | array | Liste des classateurs pour toutes les exécutions d’évaluation dans ce groupe. Les nuanceurs peuvent référencer des variables dans la source de données à l’aide d’accolades doubles, comme {{item.variable_name}}. Pour référencer la sortie du modèle, utilisez l’espace sample de noms (par exemple, {{sample.output_text}}). |
Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Get eval
GET {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Récupérez une évaluation par son ID. Récupère une évaluation par son ID.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Update eval
POST {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Mettez à jour les propriétés mutables d’une évaluation spécifiée.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | OpenAI.MetadataPropertyForRequest | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Eval |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete eval
DELETE {endpoint}/openai/v1/evals/{eval_id}?api-version=preview
Supprimez une évaluation spécifiée.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtenir des exécutions d’évaluation
GET {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Récupérez une liste d’exécutions pour une évaluation spécifiée.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string | |
| after | query | No | string | |
| limit | query | No | integer | |
| order | query | No | string Valeurs possibles : asc, desc |
|
| status | query | No | string Valeurs possibles : queued, , in_progresscompleted, canceled,failed |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunList |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Créer une exécution d’évaluation
POST {endpoint}/openai/v1/evals/{eval_id}/runs?api-version=preview
Créez une nouvelle exécution d’évaluation, en commençant le processus de notation.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom de l’exécution. | No |
Responses
Code d’état : 201
Description : la demande a réussi et une nouvelle ressource a été créée par conséquent.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtenir l’exécution d’évaluation
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Récupérez une évaluation spécifique exécutée par son ID.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Annuler l’exécution d’évaluation
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Annulez une évaluation spécifique exécutée par son ID.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRun |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Deleteevalrun
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}?api-version=preview
Supprimez une évaluation spécifique exécutée par son ID.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtenir les éléments de sortie d’exécution eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items?api-version=preview
Obtenir la liste des éléments de sortie pour une exécution d’évaluation spécifiée.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string | |
| after | query | No | string | |
| limit | query | No | integer | |
| status | query | No | string Valeurs possibles : fail, pass |
|
| order | query | No | string Valeurs possibles : asc, desc |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtenir l’élément de sortie d’exécution eval
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}?api-version=preview
Récupérez un élément de sortie spécifique à partir d’une évaluation exécutée par son ID.
REMARQUE : Cette Azure’API OpenAI est en préversion et peut être modifiée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| aoai-evals | header | Yes | string Valeurs possibles : preview |
Permet d’accéder à AOAI Evals, une fonctionnalité en préversion. Cette fonctionnalité nécessite que l’en-tête « aoai-evals » soit défini sur « preview ». |
| eval_id | path | Yes | string | |
| run_id | path | Yes | string | |
| output_item_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Create file
POST {endpoint}/openai/v1/files?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Yes | ||
| └─ anchor | AzureFileExpiryAnchor | No | ||
| └─ seconds | integer | No | ||
| file | string | Yes | ||
| purpose | enum | Objectif prévu du fichier chargé. L’un des : : assistantsutilisé dans l’API Assistants - batch: Utilisé dans l’API Batch - fine-tune: Utilisé pour le réglage précis - evals: Utilisé pour les jeux de données evalValeurs possibles : assistants, , batchfine-tune,evals |
Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
POST {endpoint}/openai/v1/files?api-version=preview
List files
GET {endpoint}/openai/v1/files?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| purpose | query | No | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureListFilesResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retrieve file
GET {endpoint}/openai/v1/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| file_id | path | Yes | string | ID du fichier à utiliser pour cette requête. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIFile |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete file
DELETE {endpoint}/openai/v1/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| file_id | path | Yes | string | ID du fichier à utiliser pour cette requête. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Download file
GET {endpoint}/openai/v1/files/{file_id}/content?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| file_id | path | Yes | string | ID du fichier à utiliser pour cette requête. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Rungrader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run?api-version=preview
Exécutez un classateur.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. | Yes | |
| └─ calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | No | |
| └─ evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| └─ input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | No | |
| └─ model | string | Modèle à utiliser pour l’évaluation. | No | |
| └─ name | string | Nom du classateur. | No | |
| └─ operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
No | |
| └─ range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| └─ reference | string | Texte en cours de classement. | No | |
| └─ sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| └─ source | string | Code source du script Python. | No | |
| └─ type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
No | |
| item | Élément de jeu de données fourni au classateur. Cela sera utilisé pour remplir l’espace item de noms. |
No | ||
| model_sample | string | Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir l’espace sample de noms. La output_json variable est remplie si l’exemple de modèle est une chaîne JSON valide. |
Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Validate grader
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate?api-version=preview
Validez un classateur.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. | Yes | |
| └─ calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | No | |
| └─ evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| └─ input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | No | |
| └─ model | string | Modèle à utiliser pour l’évaluation. | No | |
| └─ name | string | Nom du classateur. | No | |
| └─ operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
No | |
| └─ range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| └─ reference | string | Texte en cours de classement. | No | |
| └─ sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| └─ source | string | Code source du script Python. | No | |
| └─ type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Créer un travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Crée un travail de réglage précis qui commence le processus de création d’un modèle à partir d’un jeu de données donné.
La réponse inclut les détails de la tâche mise en file d’attente, y compris l’état du travail et le nom des modèles affinés une fois terminés.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | object | Hyperparamètres utilisés pour le travail de réglage précis. Cette valeur est désormais déconseillée en faveur de method, et doit être transmise sous le method paramètre. |
No | |
| └─ batch_size | enum | Valeurs possibles : auto |
No | |
| └─ learning_rate_multiplier | enum | Valeurs possibles : auto |
No | |
| └─ n_epochs | enum | Valeurs possibles : auto |
No | |
| integrations | array | Liste des intégrations à activer pour votre travail de réglage précis. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| method | OpenAI.FineTuneMethod | Méthode utilisée pour le réglage précis. | No | |
| model | chaîne (voir les modèles valides ci-dessous) | Nom du modèle à ajuster. | Yes | |
| seed | integer | La valeur initiale contrôle la reproductibilité du travail. La transmission des mêmes paramètres de départ et de travail doit produire les mêmes résultats, mais peut différer dans de rares cas. Si une valeur initiale n’est pas spécifiée, une valeur est générée pour vous. |
No | |
| suffix | string | Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné. Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| training_file | string | ID d’un fichier chargé qui contient des données d’apprentissage. Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence. |
Yes | |
| validation_file | string | ID d’un fichier chargé qui contient des données de validation. Si vous fournissez ce fichier, les données sont utilisées pour générer régulièrement des métriques de validation pendant le réglage précis. Ces métriques peuvent être consultées dans le fichier de résultats de réglage précis. Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation. Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune. |
No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les travaux de réglage précis paginés
GET {endpoint}/openai/v1/fine_tuning/jobs?api-version=preview
Répertorier les travaux d’optimisation de votre organisation
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| after | query | No | string | Identificateur du dernier travail de la demande de pagination précédente. |
| limit | query | No | integer | Nombre de travaux de réglage précis à récupérer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Récupérer un travail de réglage précis
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}?api-version=preview
Obtenez des informations sur un travail de réglage précis.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| fine_tuning_job_id | path | Yes | string | ID du travail de réglage précis. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Annuler le travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel?api-version=preview
Annulez immédiatement un travail affiné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| fine_tuning_job_id | path | Yes | string | ID du travail de réglage précis à annuler. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les points de contrôle de travail de réglage précis
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints?api-version=preview
Répertoriez les points de contrôle d’un travail de réglage précis.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| fine_tuning_job_id | path | Yes | string | ID du travail de réglage précis pour lequel obtenir des points de contrôle. |
| after | query | No | string | Identificateur du dernier ID de point de contrôle de la demande de pagination précédente. |
| limit | query | No | integer | Nombre de points de contrôle à récupérer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les événements de réglage précis
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events?api-version=preview
Obtenir les mises à jour d’état pour un travail de réglage précis.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| fine_tuning_job_id | path | Yes | string | ID du travail de réglage précis pour obtenir des événements. |
| after | query | No | string | Identificateur du dernier événement de la demande de pagination précédente. |
| limit | query | No | integer | Nombre d’événements à récupérer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Suspendre le travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause?api-version=preview
Suspendre un travail affiné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| fine_tuning_job_id | path | Yes | string | ID du travail de réglage précis à suspendre. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Reprendre le travail de réglage précis
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume?api-version=preview
Reprendre une tâche d’optimisation affinée suspendue.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| fine_tuning_job_id | path | Yes | string | ID du travail de réglage précis à reprendre. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Créer une modification d’image
POST {endpoint}/openai/v1/images/edits?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.Valeurs possibles : transparent, , opaqueauto |
No | |
| image | chaîne ou tableau | Yes | ||
| mask | string | No | ||
| model | string | Déploiement de modèle à utiliser pour l’opération de modification d’image. | Yes | |
| n | integer | Nombre d’images à générer. Doit être compris entre 1 et 10. | No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. |
No | 100 |
| output_format | enum | Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.La valeur par défaut est png.Valeurs possibles : png, , jpegwebp |
No | |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 1 000 caractères et dall-e-2de 32 000 caractères pour gpt-image-1les modèles -series. |
Yes | |
| quality | enum | Qualité de l’image qui sera générée.
high, medium et low sont uniquement pris en charge pour gpt-image-1les modèles -series.
dall-e-2 prend uniquement en charge standard la qualité. La valeur par défaut est auto.Valeurs possibles : standard, , lowmedium, high,auto |
No | |
| response_format | enum | Format dans lequel les images générées sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre est pris en charge uniquement pour dall-e-2les gpt-image-1modèles -series qui retournent toujours des images encodées en base64.Valeurs possibles : url, b64_json |
No | |
| size | enum | Taille des images générées. Doit être l’un des 1024x1024éléments suivants : 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, et l’un des 256x256modèles , 512x512ou 1024x1024 pour dall-e-2.Valeurs possibles : 256x256, , 512x5121024x1024, 1536x1024, 1024x1536auto |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Createimage
POST {endpoint}/openai/v1/images/generations?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.Valeurs possibles : transparent, , opaqueauto |
No | |
| model | string | Déploiement de modèle à utiliser pour la génération d’image. | Yes | |
| moderation | enum | Contrôlez le niveau de modération du contenu pour les images générées par gpt-image-1les modèles de série. Doit être soit low pour un filtrage moins restrictif ou auto (valeur par défaut).Valeurs possibles : low, auto |
No | |
| n | integer | Nombre d’images à générer. Doit être compris entre 1 et 10. Pour dall-e-3, uniquement n=1 est pris en charge. |
No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. |
No | 100 |
| output_format | enum | Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.Valeurs possibles : png, , jpegwebp |
No | |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 32 000 caractères pour gpt-image-1les modèles -series, 1 000 caractères et dall-e-2 4 000 caractères pour dall-e-3. |
Yes | |
| quality | enum | Qualité de l’image qui sera générée. - auto (valeur par défaut) sélectionne automatiquement la meilleure qualité pour le modèle donné.- high, medium et low sont pris en charge pour gpt-image-1les modèles -series.- hd et standard sont pris en charge pour dall-e-3.- standard est la seule option pour dall-e-2.Valeurs possibles : standard, , hdlow, medium, highauto |
No | |
| response_format | enum | Format dans lequel les images générées et dall-e-2dall-e-3 sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles -series qui retournent toujours des images codées en base64.Valeurs possibles : url, b64_json |
No | |
| size | enum | Taille des images générées. Doit être l’un des 1024x1024, 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, l’un des 256x256modèles , 512x512ou pour , ou 1024x1024 pour dall-e-2, et l’un des 1024x1024, 1792x1024ou 1024x1792 pour dall-e-3.Valeurs possibles : auto, , 1024x1024, 1536x10241024x1536256x256512x512, , 1792x10241024x1792 |
No | |
| style | enum | Style des images générées. Ce paramètre n’est pris en charge que pour dall-e-3. Doit être l’un des vivid ou natural. Le modèle se penche sur la génération d’images hyper-réelles et dramatiques. Naturel provoque la production d’images plus naturelles, moins hyper-réelles.Valeurs possibles : vivid, natural |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureImagesResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Crée des images à l’invite.
POST {endpoint}/openai/v1/images/generations?api-version=preview
{
"model": "dall-e-3",
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Réponses : Code d’état : 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
List models
GET {endpoint}/openai/v1/models?api-version=preview
Répertorie les modèles actuellement disponibles et fournit des informations de base sur chacun d’eux, tels que le propriétaire et la disponibilité.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Retrieve model
GET {endpoint}/openai/v1/models/{model}?api-version=preview
Récupère une instance de modèle, fournissant des informations de base sur le modèle, telles que le propriétaire et l’autorisation.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| model | path | Yes | string | ID du modèle à utiliser pour cette requête. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.Model |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Create response
POST {endpoint}/openai/v1/responses?api-version=preview
Crée une réponse de modèle.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| include | array | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes : - code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.- message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.- reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro). |
No | |
| input | chaîne ou tableau | No | ||
| instructions | string | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Déploiement de modèle à utiliser pour la création de cette réponse. | Yes | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| prompt | object | Référence à un modèle d’invite et à ses variables. | No | |
| └─ id | string | Identificateur unique du modèle d’invite à utiliser. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée de réponse tels que des images ou des fichiers. | No | |
| └─ version | string | Version facultative du modèle d’invite. | No | |
| reasoning | object |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| └─ generate_summary | enum |
Déconseillé : utilisez summary à la place.Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| └─ summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| store | boolean | Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. | No | True |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. | No | False |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indique que le modèle doit utiliser un outil intégré pour générer une réponse. | No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. You peut spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle, telles que la recherche de fichiers. - Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse | |
| text/event-stream | OpenAI.ResponseStreamEvent |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Example
Créer une réponse de modèle
POST {endpoint}/openai/v1/responses?api-version=preview
Get response
GET {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Récupère une réponse de modèle avec l’ID donné.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| response_id | path | Yes | string | |
| include[] | query | No | array |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Delete response
DELETE {endpoint}/openai/v1/responses/{response_id}?api-version=preview
Supprime une réponse par ID.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| response_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les éléments d’entrée
GET {endpoint}/openai/v1/responses/{response_id}/input_items?api-version=preview
Retourne une liste d’éléments d’entrée pour une réponse donnée.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| response_id | path | Yes | string | |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdesc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les magasins de vecteurs
GET {endpoint}/openai/v1/vector_stores?api-version=preview
Retourne une liste de magasins vectoriels.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdesc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Créer un magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores?api-version=preview
Crée un magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400. |
No | |
| └─ static | OpenAI.StaticChunkingStrategy | No | ||
| └─ type | enum | Toujours static.Valeurs possibles : static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| file_ids | array | Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Examples
Exemple de fichier introuvable : ./examples/vector_stores.json
Obtenir le magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Récupère un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à récupérer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Modifier le magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Modifie un magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à modifier. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| └─ anchor | enum | Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.Valeurs possibles : last_active_at |
No | |
| └─ days | integer | Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Supprimer le magasin de vecteurs
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}?api-version=preview
Supprimez un magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs à supprimer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Créer un lot de fichiers de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches?api-version=preview
Créez un lot de fichiers de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs pour lequel créer un lot de fichiers. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_ids | array | Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtenir le lot de fichiers de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=preview
Récupère un lot de fichiers de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers récupéré. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Annuler le lot de fichiers de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=preview
Annulez un lot de fichiers de magasin de vecteurs. Cela tente d’annuler le traitement des fichiers dans ce lot dès que possible.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers à annuler. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les fichiers dans le lot de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=preview
Retourne une liste de fichiers de magasin de vecteurs dans un lot.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs auquel appartient le lot de fichiers. |
| batch_id | path | Yes | string | ID du lot de fichiers auquel appartiennent les fichiers. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdesc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| filter | query | No | Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. . |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Répertorier les fichiers de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Retourne une liste de fichiers de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartiennent les fichiers. |
| limit | query | No | integer | Limite du nombre d’objets à renvoyer. La limite peut être comprise entre 1 et 100, et la valeur par défaut est 20. |
| order | query | No | string Valeurs possibles : asc, desc |
Triez l’ordre en fonction de l’horodatage created_at des objets.
asc pour l’ordre croissant etdesc pour l’ordre décroissant. |
| after | query | No | string | Curseur à utiliser dans la pagination.
after est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure after=obj_foo afin d’extraire la page suivante de la liste. |
| before | query | No | string | Curseur à utiliser dans la pagination.
before est un ID d’objet qui définit votre place dans la liste.Par exemple, si vous effectuez une demande de liste et recevez 100 objets, se terminant par obj_foo, votre appel suivant peut inclure before=obj_foo afin d’extraire la page précédente de la liste. |
| filter | query | No | Filtrez par état de fichier. Un des in_progress, , completedfailed, cancelled. . |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Créer un fichier de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files?api-version=preview
Créez un fichier de magasin de vecteurs en attachant un fichier à un magasin vectoriel.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin de vecteurs pour lequel créer un fichier. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_id | string | ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Obtenir le fichier de magasin de vecteurs
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Récupère un fichier de magasin de vecteurs.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier récupéré. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Mettre à jour les attributs de fichier de magasin de vecteurs
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | |
| file_id | path | Yes | string |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Supprimer le fichier de magasin de vecteurs
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}?api-version=preview
Supprimez un fichier de magasin de vecteurs. Cela supprime le fichier du magasin vectoriel, mais le fichier lui-même ne sera pas supprimé. Pour supprimer le fichier, utilisez le point de terminaison de suppression du fichier.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| vector_store_id | path | Yes | string | ID du magasin vectoriel auquel appartient le fichier. |
| file_id | path | Yes | string | ID du fichier à supprimer. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureErrorResponse |
Travaux de génération de vidéos - Créer
POST {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Crée un travail de génération de vidéos.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| height | integer | Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes | |
| model | string | Nom du déploiement à utiliser pour cette demande. | Yes | |
| n_seconds | integer | Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. | No | 5 |
| n_variants | integer | Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. | No | 1 |
| prompt | string | Invite de ce travail de génération de vidéos. | Yes | |
| width | integer | Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| height | integer | Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes | |
| inpaint_items | array | Éléments d’inpainting facultatifs pour ce travail de génération de vidéos. | No | |
| model | string | Nom du déploiement à utiliser pour cette demande. | Yes | |
| n_seconds | integer | Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. | No | 5 |
| n_variants | integer | Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. | No | 1 |
| prompt | string | Invite de ce travail de génération de vidéos. | Yes | |
| width | integer | Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Exemple de fichier introuvable : ./examples/create_video_generation_job_simple.json
Travaux de génération de vidéos - Liste
GET {endpoint}/openai/v1/video/generations/jobs?api-version=preview
Répertorie les travaux de génération de vidéos.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| before | query | No | string | |
| after | query | No | string | |
| limit | query | Yes | integer | |
| statuses | query | No | array |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJobList |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Exemple de fichier introuvable : ./examples/get_video_generation_job_list.json
Travaux de génération de vidéos - Obtenir
GET {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Récupère les propriétés d’un travail de génération de vidéos.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| job-id | path | Yes | string | ID du travail de génération de vidéos à utiliser pour la requête OpenAI Azure. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGenerationJob |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Exemple de fichier introuvable : ./examples/get_video_generation_job.json
Travaux de génération de vidéos - Supprimer
DELETE {endpoint}/openai/v1/video/generations/jobs/{job-id}?api-version=preview
Supprime un travail de génération de vidéos.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| job-id | path | Yes | string | ID du travail de génération de vidéos à utiliser pour la requête OpenAI Azure. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 204
Description : il n’existe aucun contenu à envoyer pour cette demande, mais les en-têtes peuvent être utiles.
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Générations de vidéos - Obtenir
GET {endpoint}/openai/v1/video/generations/{generation-id}?api-version=preview
Récupère une génération de vidéo par ID.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| generation-id | path | Yes | string | ID de la génération de vidéos à utiliser pour la requête OpenAI Azure. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| application/json | VideoGeneration |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Examples
Exemple de fichier introuvable : ./examples/get_video_generation.json
Générations de vidéos - Récupérer une miniature
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/thumbnail?api-version=preview
Récupère une miniature du contenu vidéo généré.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| generation-id | path | Yes | string | ID de la génération de vidéos à utiliser pour la requête OpenAI Azure. |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| image/jpg | string |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Générations de vidéos - Récupérer du contenu vidéo
GET {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Récupère le contenu vidéo généré.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| generation-id | path | Yes | string | ID de la génération de vidéos à utiliser pour la requête OpenAI Azure. |
| quality | query | No |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
| Content-Type | Type | Description |
|---|---|---|
| video/mp4 | string |
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Générations de vidéos - Récupérer uniquement les en-têtes videocontent
HEAD {endpoint}/openai/v1/video/generations/{generation-id}/content/video?api-version=preview
Récupère les en-têtes pour le contenu vidéo généré.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url |
Prise en charge Azure points de terminaison OpenAI (protocole et nom d’hôte, par exemple : https://aoairesource.openai.azure.com. Remplacez « aoairesource » par votre Azure nom de ressource OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | No | Version explicite de l’API Foundry Models à utiliser pour cette requête.v1 s’il n’est pas spécifié. |
|
| generation-id | path | Yes | string | ID de la génération de vidéos à utiliser pour la requête OpenAI Azure. |
| quality | query | No |
Request Header
Utilisez l’authentification basée sur les jetons ou la clé API. L’authentification avec l’authentification basée sur des jetons est recommandée et plus sécurisée.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Pour générer un jeton d’authentification à l’aide de Azure CLI : az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL d’autorisation : https://login.microsoftonline.com/common/oauth2/v2.0/authorizePortée: https://ai.azure.com/.default |
| api-key | True | string | Fournissez Azure clé API OpenAI ici |
Responses
Code d’état : 200
Description : la demande a réussi.
Code d’état : par défaut
Description : réponse d’erreur inattendue.
| Content-Type | Type | Description |
|---|---|---|
| application/json | AzureOpenAIVideoGenerationErrorResponse |
Components
AudioTaskLabel
Définit les descripteurs possibles pour les réponses d’opération audio disponibles.
| Property | Value |
|---|---|
| Description | Définit les descripteurs possibles pour les réponses d’opération audio disponibles. |
| Type | string |
| Values | transcribetranslate |
AudioTranslationSegment
Informations étendues sur un segment unique de données audio traduites. Les segments représentent généralement environ 5 à 10 secondes de parole. Les limites de segment se produisent généralement entre des mots, mais pas nécessairement des phrases.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilité moyenne du journal associée à ce segment audio. | Yes | |
| compression_ratio | number | Taux de compression de ce segment audio. | Yes | |
| end | number | Heure à laquelle ce segment s’est terminé par rapport au début de l’audio traduit. | Yes | |
| id | integer | Index de base 0 de ce segment dans une traduction. | Yes | |
| no_speech_prob | number | Probabilité d’absence de détection vocale dans ce segment audio. | Yes | |
| seek | integer | Position de recherche associée au traitement de ce segment audio. Les positions de recherche sont exprimées sous forme de centièmes de secondes. Le modèle peut traiter plusieurs segments à partir d’une position de recherche unique. Par conséquent, alors que la position de recherche ne représentera jamais plus tard que le début du segment, le début du segment peut représenter une heure beaucoup plus tard que la position de recherche associée au segment. |
Yes | |
| start | number | Heure à laquelle ce segment a commencé par rapport au début de l’audio traduit. | Yes | |
| temperature | number | Score de température associé à ce segment audio. | Yes | |
| text | string | Texte traduit qui faisait partie de ce segment audio. | Yes | |
| tokens | array | ID de jeton correspondant au texte traduit dans ce segment audio. | Yes |
AzureAIFoundryModelsApiVersion
| Property | Value |
|---|---|
| Type | string |
| Values | v1preview |
AzureAudioTranscriptionResponse
Informations de résultat pour une opération qui a transcrit l’audio parlé en texte écrit.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Durée totale de l’audio traité pour produire des informations de transcription associées. | No | |
| language | string | Langue parlée détectée dans les données audio transcrites. Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ». |
No | |
| segments | array | Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. | No | |
| task | object | Définit les descripteurs possibles pour les réponses d’opération audio disponibles. | No | |
| text | string | Texte transcrit pour les données audio fournies. | Yes | |
| words | array | Collection d’informations sur le minutage de chaque mot traité. | No |
AzureAudioTranslationResponse
Informations de résultat pour une opération qui a traduit l’audio parlé en texte écrit.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Durée totale de l’audio traité pour produire des informations de traduction associées. | No | |
| language | string | Langue parlée détectée dans les données audio traduites. Cela est exprimé sous la forme d’un code de langue ISO-639-1 à deux lettres comme « en » ou « fr ». |
No | |
| segments | array | Collection d’informations sur le minutage, les probabilités et les autres détails de chaque segment audio traité. | No | |
| task | object | Définit les descripteurs possibles pour les réponses d’opération audio disponibles. | No | |
| text | string | Texte traduit pour les données audio fournies. | Yes |
AzureChatCompletionResponseMessage
Composant de modèle de réponse étendu pour les messages de réponse de saisie semi-automatique de conversation sur le service OpenAI Azure. Ce modèle ajoute la prise en charge du contexte de message de conversation, utilisée par la fonctionnalité Sur vos données pour l’intention, les citations et d’autres informations relatives à la génération augmentée de récupération effectuée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Annotations pour le message, le cas échéant, comme lors de l’utilisation de l’outil de recherche web. | No | |
| audio | object | Si la modalité de sortie audio est demandée, cet objet contient des données sur la réponse audio du modèle. | No | |
| └─ data | string | Octets audio encodés en base64 générés par le modèle, au format spécifié dans la requête. | No | |
| └─ expires_at | integer | Horodatage Unix (en secondes) pour lequel cette réponse audio ne sera plus accessible sur le serveur pour une utilisation dans les conversations à plusieurs tours. | No | |
| └─ id | string | Identificateur unique pour cette réponse audio. | No | |
| └─ transcript | string | Transcription de l’audio généré par le modèle. | No | |
| content | string | Contenu du message. | Yes | |
| context | object | Une propriété supplémentaire, ajoutée aux messages de réponse de saisie semi-automatique de conversation, produite par le service OpenAI Azure lors de l’utilisation du comportement d’extension. Cela inclut les informations d’intention et de citation de la fonctionnalité Sur vos données. | No | |
| └─ all_retrieved_documents | object | Informations récapitulatives sur les documents récupérés par l’opération de récupération de données. | No | |
| └─ chunk_id | string | ID de bloc de la citation. | No | |
| └─ content | string | Contenu de la citation. | No | |
| └─ data_source_index | integer | Index de la source de données utilisée pour la récupération. | No | |
| └─ filepath | string | Chemin d’accès du fichier pour la citation. | No | |
| └─ filter_reason | enum | Le cas échéant, indication de la raison pour laquelle le document a été filtré. Valeurs possibles : score, rerank |
No | |
| └─ original_search_score | number | Score de recherche d’origine pour la récupération. | No | |
| └─ rerank_score | number | Score de reclassement pour la récupération. | No | |
| └─ search_queries | array | Requêtes de recherche exécutées pour récupérer des documents. | No | |
| └─ title | string | Titre de la citation. | No | |
| └─ url | string | URL de la citation. | No | |
| └─ citations | array | Citations produites par la récupération des données. | No | |
| └─ intent | string | Intention détectée à partir de l’historique des conversations, utilisée pour transporter le contexte de conversation entre les interactions | No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| reasoning_content | string | Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. | No | |
| refusal | string | Message de refus généré par le modèle. | Yes | |
| role | enum | Rôle de l’auteur de ce message. Valeurs possibles : assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | Les appels d’outil générés par le modèle, tels que les appels de fonction. | No |
AzureChatCompletionStreamResponseDelta
Modèle de réponse étendu pour un message de réponse de conversation en streaming sur le service OpenAI Azure. Ce modèle ajoute la prise en charge du contexte de message de conversation, utilisée par la fonctionnalité Sur vos données pour l’intention, les citations et d’autres informations relatives à la génération augmentée de récupération effectuée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | No | ||
| └─ data | string | No | ||
| └─ expires_at | integer | No | ||
| └─ id | string | No | ||
| └─ transcript | string | No | ||
| content | string | Contenu du message de bloc. | No | |
| context | object | Une propriété supplémentaire, ajoutée aux messages de réponse de saisie semi-automatique de conversation, produite par le service OpenAI Azure lors de l’utilisation du comportement d’extension. Cela inclut les informations d’intention et de citation de la fonctionnalité Sur vos données. | No | |
| └─ all_retrieved_documents | object | Informations récapitulatives sur les documents récupérés par l’opération de récupération de données. | No | |
| └─ chunk_id | string | ID de bloc de la citation. | No | |
| └─ content | string | Contenu de la citation. | No | |
| └─ data_source_index | integer | Index de la source de données utilisée pour la récupération. | No | |
| └─ filepath | string | Chemin d’accès du fichier pour la citation. | No | |
| └─ filter_reason | enum | Le cas échéant, indication de la raison pour laquelle le document a été filtré. Valeurs possibles : score, rerank |
No | |
| └─ original_search_score | number | Score de recherche d’origine pour la récupération. | No | |
| └─ rerank_score | number | Score de reclassement pour la récupération. | No | |
| └─ search_queries | array | Requêtes de recherche exécutées pour récupérer des documents. | No | |
| └─ title | string | Titre de la citation. | No | |
| └─ url | string | URL de la citation. | No | |
| └─ citations | array | Citations produites par la récupération des données. | No | |
| └─ intent | string | Intention détectée à partir de l’historique des conversations, utilisée pour transporter le contexte de conversation entre les interactions | No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| reasoning_content | string | Propriété d’extension spécifique à Azure contenant le contenu de raisonnement généré à partir de modèles pris en charge. | No | |
| refusal | string | Message de refus généré par le modèle. | No | |
| role | object | Rôle de l’auteur d’un message | No | |
| tool_calls | array | No |
AzureChatDataSource
Représentation des données de configuration pour une seule source de données de conversation OpenAI Azure. Cette opération sera utilisée par une demande de saisie semi-automatique de conversation qui doit utiliser Azure extensions de conversation OpenAI pour augmenter le comportement de réponse. L’utilisation de cette configuration est compatible uniquement avec Azure OpenAI.
Discriminateur pour AzureChatDataSource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
azure_search |
AzureSearchChatDataSource |
azure_cosmos_db |
AzureCosmosDBChatDataSource |
elasticsearch |
ElasticsearchChatDataSource |
pinecone |
PineconeChatDataSource |
mongo_db |
MongoDBChatDataSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | object | Yes |
AzureChatDataSourceAccessTokenAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | Yes | ||
| type | enum | Valeurs possibles : access_token |
Yes |
AzureChatDataSourceApiKeyAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Yes | ||
| type | enum | Valeurs possibles : api_key |
Yes |
AzureChatDataSourceAuthenticationOptions
Discriminateur pour AzureChatDataSourceAuthenticationOptions
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
system_assigned_managed_identity |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions |
access_token |
AzureChatDataSourceAccessTokenAuthenticationOptions |
connection_string |
AzureChatDataSourceConnectionStringAuthenticationOptions |
key_and_key_id |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions |
username_and_password |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | AzureChatDataSourceAuthenticationOptionsType | Yes |
AzureChatDataSourceAuthenticationOptionsType
| Property | Value |
|---|---|
| Type | string |
| Values | api_keyusername_and_passwordconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identity |
AzureChatDataSourceConnectionStringAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | Yes | ||
| type | enum | Valeurs possibles : connection_string |
Yes |
AzureChatDataSourceDeploymentNameVectorizationSource
Représente une source de vectorisation qui effectue des appels de service interne sur un déploiement de modèle incorporé OpenAI Azure. Contrairement à la source de vectorisation basée sur le point de terminaison, une source de vectorisation basée sur le nom de déploiement doit faire partie du même Azure ressource OpenAI, mais peut être utilisée même dans des réseaux privés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Déploiement du modèle d’incorporation à utiliser pour la vectorisation. Ce déploiement doit exister dans le même Azure ressource OpenAI que le déploiement de modèle utilisé pour les achèvements de conversation. | Yes | |
| dimensions | integer | Nombre de dimensions à demander sur les incorporations. Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures. |
No | |
| type | enum | Identificateur de type, toujours « deployment_name » pour ce type de source de vectorisation. Valeurs possibles : deployment_name |
Yes |
AzureChatDataSourceEncodedApiKeyAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | Yes | ||
| type | enum | Valeurs possibles : encoded_api_key |
Yes |
AzureChatDataSourceEndpointVectorizationSource
Représente une source de vectorisation qui effectue des appels de service public sur un déploiement de modèle incorporé OpenAI Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | object | Yes | ||
| └─ access_token | string | No | ||
| └─ key | string | No | ||
| └─ type | enum | Valeurs possibles : access_token |
No | |
| dimensions | integer | Nombre de dimensions à demander sur les incorporations. Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures. |
No | |
| endpoint | string | Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées. Il doit être au format suivant : https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. |
Yes | |
| type | enum | Identificateur de type, toujours « point de terminaison » pour ce type de source de vectorisation. Valeurs possibles : endpoint |
Yes |
AzureChatDataSourceIntegratedVectorizationSource
Représente une source de vectorisation intégrée telle que définie dans la ressource de recherche prise en charge.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Identificateur de type, toujours « intégré » pour ce type de source de vectorisation. Valeurs possibles : integrated |
Yes |
AzureChatDataSourceKeyAndKeyIdAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Yes | ||
| key_id | string | Yes | ||
| type | enum | Valeurs possibles : key_and_key_id |
Yes |
AzureChatDataSourceModelIdVectorizationSource
Représente une source de vectorisation qui effectue des appels de service en fonction d’un ID de modèle de service de recherche. Ce type de source n’est actuellement pris en charge que par Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | ID de build du modèle incorporé à utiliser pour la vectorisation. | Yes | |
| type | enum | Identificateur de type, toujours « model_id » pour ce type de source de vectorisation. Valeurs possibles : model_id |
Yes |
AzureChatDataSourceSystemAssignedManagedIdentityAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : system_assigned_managed_identity |
Yes |
AzureChatDataSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchpineconemongo_db |
AzureChatDataSourceUserAssignedManagedIdentityAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | Yes | ||
| type | enum | Valeurs possibles : user_assigned_managed_identity |
Yes |
AzureChatDataSourceUsernameAndPasswordAuthenticationOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | Yes | ||
| type | enum | Valeurs possibles : username_and_password |
Yes | |
| username | string | Yes |
AzureChatDataSourceVectorizationSource
Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données.
Discriminateur pour AzureChatDataSourceVectorizationSource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
deployment_name |
AzureChatDataSourceDeploymentNameVectorizationSource |
integrated |
AzureChatDataSourceIntegratedVectorizationSource |
model_id |
AzureChatDataSourceModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | object | Yes |
AzureChatDataSourceVectorizationSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | endpointdeployment_namemodel_idintegrated |
AzureChatMessageContext
Une propriété supplémentaire, ajoutée aux messages de réponse de saisie semi-automatique de conversation, produite par le service OpenAI Azure lors de l’utilisation du comportement d’extension. Cela inclut les informations d’intention et de citation de la fonctionnalité Sur vos données.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | object | Informations récapitulatives sur les documents récupérés par l’opération de récupération de données. | No | |
| └─ chunk_id | string | ID de bloc de la citation. | No | |
| └─ content | string | Contenu de la citation. | No | |
| └─ data_source_index | integer | Index de la source de données utilisée pour la récupération. | No | |
| └─ filepath | string | Chemin d’accès du fichier pour la citation. | No | |
| └─ filter_reason | enum | Le cas échéant, indication de la raison pour laquelle le document a été filtré. Valeurs possibles : score, rerank |
No | |
| └─ original_search_score | number | Score de recherche d’origine pour la récupération. | No | |
| └─ rerank_score | number | Score de reclassement pour la récupération. | No | |
| └─ search_queries | array | Requêtes de recherche exécutées pour récupérer des documents. | No | |
| └─ title | string | Titre de la citation. | No | |
| └─ url | string | URL de la citation. | No | |
| citations | array | Citations produites par la récupération des données. | No | |
| intent | string | Intention détectée à partir de l’historique des conversations, utilisée pour transporter le contexte de conversation entre les interactions | No |
AzureContentFilterBlocklistResult
Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. | No | |
| filtered | boolean | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | Yes |
AzureContentFilterCompletionTextSpan
Représentation d’une étendue de texte d’achèvement telle qu’utilisée par Azure résultats du filtre de contenu OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Décalage du premier point de code UTF32 exclu de l’étendue. Ce champ est toujours égal à completion_start_offset pour les étendues vides. Ce champ est toujours supérieur à completion_start_offset pour les étendues non vides. | Yes | |
| completion_start_offset | integer | Décalage du point de code UTF32 qui commence l’étendue. | Yes |
AzureContentFilterCompletionTextSpanDetectionResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Informations détaillées sur les étendues de texte d’achèvement détectées. | Yes | |
| detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Yes | |
| filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Yes |
AzureContentFilterCustomTopicResult
Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | Paires d’ID de rubriques individuelles et détections. | No | |
| filtered | boolean | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | Yes |
AzureContentFilterDetectionResult
Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | Yes | |
| filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | Yes |
AzureContentFilterImagePromptResults
Résultat d’un filtre de contenu pour le contenu de la demande d’entrée d’une opération de génération d’image.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | object | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | No | |
| └─ details | array | Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. | No | |
| └─ filtered | boolean | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | No | |
| custom_topics | object | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | No | |
| └─ details | array | Paires d’ID de rubriques individuelles et détections. | No | |
| └─ filtered | boolean | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | No | |
| jailbreak | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | Yes | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| profanity | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No |
AzureContentFilterImageResponseResults
Résultat d’un filtre de contenu pour le contenu de réponse de sortie d’une opération de génération d’image.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| self_harm | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| sexual | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| violence | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No |
AzureContentFilterResultForChoice
Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | object | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | No | |
| └─ details | array | Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. | No | |
| └─ filtered | boolean | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | No | |
| custom_topics | object | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | No | |
| └─ details | array | Paires d’ID de rubriques individuelles et détections. | No | |
| └─ filtered | boolean | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | No | |
| error | object | S’il est présent, des détails sur une erreur empêchant le filtrage du contenu de terminer son évaluation. | No | |
| └─ code | integer | Code distinct lisible par l’ordinateur associé à l’erreur. | No | |
| └─ message | string | Message lisible par l’homme associé à l’erreur. | No | |
| hate | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| profanity | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| protected_material_code | object | Résultat de détection qui décrit une correspondance avec le code sous licence ou d’autres documents sources protégés. | No | |
| └─ citation | object | Si disponible, les détails de la citation décrivent la licence associée et son emplacement. | No | |
| └─ URL | string | URL associée à la licence. | No | |
| └─ license | string | Nom ou identificateur de la licence associée à la détection. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| protected_material_text | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| self_harm | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| sexual | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | No | ||
| violence | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No |
AzureContentFilterResultForPrompt
Résultat d’un filtre de contenu associé à un seul élément d’invite d’entrée dans un système d’INTELLIGENCE artificielle générative.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | object | Détails de la catégorie de filtre de contenu pour le résultat. | No | |
| └─ custom_blocklists | object | Collection de résultats de filtrage true/false pour les listes de blocs personnalisées configurées. | No | |
| └─ details | array | Paires d’ID de liste de blocs individuels et si elles ont entraîné une action de filtrage. | No | |
| └─ filtered | boolean | Valeur indiquant si l’une des listes de blocs détaillées a entraîné une action de filtrage. | No | |
| └─ custom_topics | object | Collection de résultats de filtrage true/false pour les rubriques personnalisées configurées. | No | |
| └─ details | array | Paires d’ID de rubriques individuelles et détections. | No | |
| └─ filtered | boolean | Valeur indiquant si l’une des rubriques détaillées a entraîné une action de filtrage. | No | |
| └─ error | object | S’il est présent, des détails sur une erreur empêchant le filtrage du contenu de terminer son évaluation. | No | |
| └─ code | integer | Code distinct lisible par l’ordinateur associé à l’erreur. | No | |
| └─ message | string | Message lisible par l’homme associé à l’erreur. | No | |
| └─ hate | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| └─ indirect_attack | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| └─ jailbreak | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| └─ profanity | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été détecté et si le contenu a été filtré. | No | |
| └─ detected | boolean | Indique si la catégorie de contenu étiquetée a été détectée dans le contenu. | No | |
| └─ filtered | boolean | Indique si la détection de contenu a entraîné une action de filtrage de contenu. | No | |
| └─ self_harm | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| └─ sexual | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| └─ violence | object | Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie. | No | |
| └─ filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | No | |
| └─ severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
No | |
| prompt_index | integer | Index de l’invite d’entrée associée aux catégories de résultats du filtre de contenu associées. | No |
AzureContentFilterSeverityResult
Élément de résultat du filtre de contenu étiqueté qui indique si le contenu a été filtré et quel niveau de gravité qualitative du contenu a été évalué par rapport à la configuration du filtre de contenu pour la catégorie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Indique si la gravité du contenu a entraîné une action de filtrage de contenu. | Yes | |
| severity | enum | Gravité étiquetée du contenu. Valeurs possibles : safe, , lowmedium,high |
Yes |
AzureCosmosDBChatDataSource
Représente une configuration de source de données qui utilisera une ressource Azure CosmosDB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Informations de paramètre pour contrôler l’utilisation de la source de données cosmosDB Azure. | Yes | |
| └─ allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| └─ authentication | AzureChatDataSourceConnectionStringAuthenticationOptions | No | ||
| └─ container_name | string | No | ||
| └─ database_name | string | No | ||
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données. | No | |
| └─ fields_mapping | object | No | ||
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation des données indexées. | No | |
| └─ include_contexts | array | Propriétés du contexte de sortie à inclure dans la réponse. Par défaut, les citations et l’intention sont demandées. |
No | ['citations', 'intent'] |
| └─ index_name | string | No | ||
| └─ max_search_queries | integer | Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur. Par défaut, le système effectue une détermination automatique. |
No | |
| └─ strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible. |
No | |
| └─ top_n_documents | integer | Nombre configuré de documents à présenter dans la requête. | No | |
| type | enum | Identificateur de type discriminé, qui est toujours « azure_cosmos_db ». Valeurs possibles : azure_cosmos_db |
Yes |
AzureCreateChatCompletionRequest
Modèle de requête étendu pour les achèvements de conversation par rapport au service OpenAI Azure. Cela ajoute la possibilité de fournir des sources de données pour la fonctionnalité Sur vos données.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Paramètres de sortie audio. Obligatoire lorsque la sortie audio est demandée avec modalities: ["audio"]. |
No | |
| └─ format | enum | Spécifie le format audio de sortie. Doit être l’un des wav, , mp3, flacopus, ou pcm16.Valeurs possibles : wav, , aacmp3, flac, opuspcm16 |
No | |
| └─ voice | object | No | ||
| data_sources | array | Sources de données à utiliser pour la fonctionnalité Sur vos données, exclusives à Azure OpenAI. | No | |
| frequency_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons en fonction de leur fréquence existante dans le texte jusqu’à présent, ce qui réduit la probabilité de répéter la même ligne verbatim. | No | 0 |
| function_call | enum | La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.Valeurs possibles : none, auto |
No | |
| functions | array | Déconseillé en faveur de tools.Une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. |
No | |
| logit_bias | object | Modifiez la probabilité que les jetons spécifiés apparaissent dans la saisie semi-automatique. Accepte un objet JSON qui mappe les jetons (spécifiés par leur ID de jeton dans le tokenizer) à une valeur de biais associée de -100 à 100. Mathématiquement, le biais est ajouté aux logits générés par le modèle avant l’échantillonnage. L’effet exact varie selon le modèle, mais les valeurs entre -1 et 1 doivent diminuer ou augmenter la probabilité de sélection ; les valeurs telles que -100 ou 100 doivent entraîner une interdiction ou une sélection exclusive du jeton approprié. |
No | None |
| logprobs | boolean | Indique s’il faut retourner les probabilités de journal des jetons de sortie ou non. Si la valeur est true, retourne les probabilités de journal de chaque jeton de sortie retourné dans le contentmessagefichier . |
No | False |
| max_completion_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une fin, y compris les jetons de sortie visibles et les jetons de raisonnement. | No | |
| max_tokens | integer | Nombre maximal de jetons pouvant être générés dans la saisie semi-automatique de conversation. Cette valeur peut être utilisée pour contrôler les coûts du texte généré via l’API. Cette valeur est désormais déconseillée en faveur des modèles de max_completion_tokenssérie o1 et n’est pas compatible avec les modèles de série o1. |
No | |
| messages | array | Liste des messages comprenant la conversation jusqu’à présent. Selon le modèle que vous utilisez, différents types de messages (modalités) sont pris en charge, tels que le texte, les images et l’audio. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| modalities | object | Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut : ["text"]Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :["text", "audio"] |
No | |
| model | string | Identificateur de déploiement de modèle à utiliser pour la demande d’achèvement de conversation. | Yes | |
| n | integer | Nombre de choix de saisie semi-automatique de conversation à générer pour chaque message d’entrée. Notez que vous serez facturé en fonction du nombre de jetons générés dans tous les choix. Gardez n le temps 1 de réduire les coûts. |
No | 1 |
| parallel_tool_calls | object | Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil. | No | |
| prediction | object | Représentation de base de la sortie prédite à partir d’un modèle. | No | |
| └─ type | OpenAI.ChatOutputPredictionType | No | ||
| presence_penalty | number | Nombre compris entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux jetons selon qu’ils apparaissent dans le texte jusqu’à présent, ce qui augmente la probabilité que le modèle parle de nouveaux sujets. | No | 0 |
| reasoning_effort | object |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| response_format | object | No | ||
| └─ type | enum | Valeurs possibles : text, , json_objectjson_schema |
No | |
| seed | integer | Cette fonctionnalité est en version bêta. S’il est spécifié, notre système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec les mêmes paramètres et les mêmes seed paramètres doivent retourner le même résultat.Le déterminisme n’est pas garanti et vous devez faire référence au system_fingerprint paramètre de réponse pour surveiller les modifications dans le back-end. |
No | |
| stop | object | Non pris en charge avec les derniers modèles o3 de raisonnement et o4-mini.Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt. |
No | |
| store | boolean | Indique s’il faut stocker ou non la sortie de cette demande de saisie semi-automatique de conversation pour une utilisation dans les produits de distillation de modèle ou d’évaluation. | No | False |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. | No | False |
| stream_options | object | Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true. |
No | |
| └─ include_usage | boolean | Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide.Tous les autres blocs incluent également un usage champ, mais avec une valeur Null.
NOTE: Si le flux est interrompu, vous ne recevez peut-être pas le bloc d’utilisation final qui contient l’utilisation totale du jeton pour la demande. |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils.La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si les outils sont présents. |
No | |
| tools | array | Une liste d’outils que le modèle peut appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Utilisez cette option pour fournir une liste de fonctions pour laquelle le modèle peut générer des entrées JSON. Un maximum de 128 fonctions sont prises en charge. | No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider à surveiller et détecter les abus. | No | |
| user_security_context | AzureUserSecurityContext | Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud. | No |
AzureCreateChatCompletionResponse
Modèle de réponse d’achèvement de conversation de niveau supérieur étendu pour le service OpenAI Azure. Ce modèle ajoute des annotations de filtre de contenu d’IA responsable pour l’entrée d’invite.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Yes | ||
| created | integer | Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. | Yes | |
| id | string | Identificateur unique de la saisie semi-automatique de conversation. | Yes | |
| model | string | Modèle utilisé pour la saisie semi-automatique de conversation. | Yes | |
| object | enum | Type d’objet, qui est toujours chat.completion.Valeurs possibles : chat.completion |
Yes | |
| prompt_filter_results | array | Les annotations de filtre de contenu d’IA responsable associées aux entrées d’invite dans les saisies semi-automatiques de conversation. | No | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute. Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme. |
No | |
| usage | OpenAI.CompletionUsage | Statistiques d’utilisation pour la demande d’achèvement. | No |
AzureCreateChatCompletionStreamResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Liste des choix de saisie semi-automatique de conversation. Peut contenir plusieurs éléments s’il n est supérieur à 1. Peut également être vide pour le dernier bloc si vous définissez stream_options: {"include_usage": true}. |
Yes | |
| content_filter_results | AzureContentFilterResultForChoice | Résultat d’un filtre de contenu pour un élément de réponse unique produit par un système d’INTELLIGENCE artificielle générative. | No | |
| created | integer | Horodatage Unix (en secondes) de la création de la saisie semi-automatique de conversation. Chaque bloc a le même horodatage. | Yes | |
| delta | AzureChatCompletionStreamResponseDelta | Modèle de réponse étendu pour un message de réponse de conversation en streaming sur le service OpenAI Azure. Ce modèle ajoute la prise en charge du contexte de message de conversation, utilisée par la fonctionnalité Sur vos données pour l’intention, les citations et d’autres informations relatives à la génération augmentée de récupération effectuée. |
No | |
| id | string | Identificateur unique de la saisie semi-automatique de conversation. Chaque bloc a le même ID. | Yes | |
| model | string | Modèle à générer l’achèvement. | Yes | |
| object | enum | Type d’objet, qui est toujours chat.completion.chunk.Valeurs possibles : chat.completion.chunk |
Yes | |
| system_fingerprint | string | Cette empreinte digitale représente la configuration principale avec laquelle le modèle s’exécute. Peut être utilisé conjointement avec le paramètre de requête pour comprendre quand des modifications principales ont été apportées, ce qui peut avoir un impact sur le seed déterminisme. |
No | |
| usage | object | Statistiques d’utilisation pour la demande d’achèvement. | No | |
| └─ completion_tokens | integer | Nombre de jetons dans la saisie semi-automatique générée. | No | 0 |
| └─ completion_tokens_details | object | Répartition des jetons utilisés dans une saisie semi-automatique. | No | |
| └─ accepted_prediction_tokens | integer | Lors de l’utilisation des sorties prédites, nombre de jetons dans la prédiction qui apparaissent dans la saisie semi-automatique. | No | 0 |
| └─ audio_tokens | integer | Jetons d’entrée audio générés par le modèle. | No | 0 |
| └─ reasoning_tokens | integer | Jetons générés par le modèle pour le raisonnement. | No | 0 |
| └─ rejected_prediction_tokens | integer | Lorsque vous utilisez des sorties prédites, nombre de jetons dans la prédiction qui n’apparaissent pas dans la saisie semi-automatique. Toutefois, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. | No | 0 |
| └─ prompt_tokens | integer | Nombre de jetons dans l’invite. | No | 0 |
| └─ prompt_tokens_details | object | Répartition des jetons utilisés dans l’invite. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio présents dans l’invite. | No | 0 |
| └─ cached_tokens | integer | Jetons mis en cache présents dans l’invite. | No | 0 |
| └─ total_tokens | integer | Nombre total de jetons utilisés dans la requête (invite + achèvement). | No | 0 |
AzureCreateEmbeddingRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | Nombre de dimensions dont les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 les modèles ultérieurs et ultérieurs. |
No | |
| encoding_format | enum | Format dans lequel retourner les incorporations. Peut être soit float ou base64.Valeurs possibles : float, base64 |
No | |
| input | chaîne ou tableau | Yes | ||
| model | string | Modèle à utiliser pour la demande d’incorporation. | Yes | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
AzureCreateFileRequestMultiPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Yes | ||
| └─ anchor | AzureFileExpiryAnchor | No | ||
| └─ seconds | integer | No | ||
| file | string | Yes | ||
| purpose | enum | Objectif prévu du fichier chargé. L’un des : : assistantsutilisé dans l’API Assistants - batch: utilisé dans l’API Batch - fine-tune: Utilisé pour le réglage précis - evals: utilisé pour les jeux de données eval. Valeurs possibles : assistants, , batchfine-tune,evals |
Yes |
AzureCreateImageEditRequestMultiPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.Valeurs possibles : transparent, , opaqueauto |
No | |
| image | chaîne ou tableau | Yes | ||
| mask | string | No | ||
| model | string | Déploiement de modèle à utiliser pour l’opération de modification d’image. | Yes | |
| n | integer | Nombre d’images à générer. Doit être compris entre 1 et 10. | No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. |
No | 100 |
| output_format | enum | Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.La valeur par défaut est png.Valeurs possibles : png, , jpegwebp |
No | |
| prompt | string | Description textuelle de la ou des images souhaitées. La longueur maximale est de 1 000 caractères et dall-e-2de 32 000 caractères pour gpt-image-1les modèles -series. |
Yes | |
| quality | enum | Qualité de l’image qui sera générée.
high, medium et low sont uniquement pris en charge pour gpt-image-1les modèles -series.
dall-e-2 prend uniquement en charge standard la qualité. La valeur par défaut est auto.Valeurs possibles : standard, , lowmedium, high,auto |
No | |
| response_format | enum | Format dans lequel les images générées sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre est pris en charge uniquement pour dall-e-2les gpt-image-1modèles -series qui retournent toujours des images encodées en base64.Valeurs possibles : url, b64_json |
No | |
| size | enum | Taille des images générées. Doit être l’un des 1024x1024éléments suivants : 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, et l’un des 256x256modèles , 512x512ou 1024x1024 pour dall-e-2.Valeurs possibles : 256x256, , 512x5121024x1024, 1536x1024, 1024x1536auto |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
AzureCreateImageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | Permet de définir la transparence pour l’arrière-plan de la ou des images générées. Ce paramètre est pris en charge uniquement pour les gpt-image-1 modèles. Doit être l’une des transparentvaleurs opaque par défaut ou auto (valeur par défaut). Lorsqu’il auto est utilisé, le modèle détermine automatiquement le meilleur arrière-plan pour l’image.Si transparent, le format de sortie doit prendre en charge la transparence, il doit donc être défini sur png (valeur par défaut) ou webp.Valeurs possibles : transparent, , opaqueauto |
No | |
| model | string | Déploiement de modèle à utiliser pour la génération d’image. | Yes | |
| moderation | enum | Contrôlez le niveau de modération du contenu pour les images générées par gpt-image-1les modèles de série. Doit être soit low pour un filtrage moins restrictif ou auto (valeur par défaut).Valeurs possibles : low, auto |
No | |
| n | integer | Nombre d’images à générer. Doit être compris entre 1 et 10. Pour dall-e-3, uniquement n=1 est pris en charge. |
No | 1 |
| output_compression | integer | Niveau de compression (0-100%) pour les images générées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series avec les webp formats ou jpeg les formats de sortie, et la valeur par défaut est 100. |
No | 100 |
| output_format | enum | Format dans lequel les images générées sont retournées. Ce paramètre est uniquement pris en charge pour gpt-image-1les modèles -series. Doit être l’un des png, jpegou webp.Valeurs possibles : png, , jpegwebp |
No | |
| prompt | string | Description textuelle de la ou des images souhaitées. | Yes | |
| quality | enum | Qualité de l’image qui sera générée. - auto (valeur par défaut) sélectionne automatiquement la meilleure qualité pour le modèle donné.- high, medium et low sont pris en charge pour gpt-image-1les modèles -series.- hd et standard sont pris en charge pour dall-e-3.- standard est la seule option pour dall-e-2.Valeurs possibles : standard, , hdlow, medium, highauto |
No | |
| response_format | enum | Format dans lequel les images générées et dall-e-2dall-e-3 sont retournées. Doit être l’un des url ou b64_json. Les URL ne sont valides que pendant 60 minutes après la génération de l’image. Ce paramètre n’est pas pris en charge pour gpt-image-1les modèles -series qui retournent toujours des images codées en base64.Valeurs possibles : url, b64_json |
No | |
| size | enum | Taille des images générées. Doit être l’un des 1024x1024, 1536x1024 (paysage), 1024x1536 (portrait) ou auto (valeur par défaut) pour gpt-image-1les modèles -series, l’un des 256x256modèles , 512x512ou pour , ou 1024x1024 pour dall-e-2, et l’un des 1024x1024, 1792x1024ou 1024x1792 pour dall-e-3.Valeurs possibles : auto, , 1024x1024, 1536x10241024x1536256x256512x512, , 1792x10241024x1792 |
No | |
| style | enum | Style des images générées. Ce paramètre n’est pris en charge que pour dall-e-3. Doit être l’un des vivid ou natural. Le modèle se penche sur la génération d’images hyper-réelles et dramatiques. Naturel provoque la production d’images plus naturelles, moins hyper-réelles.Valeurs possibles : vivid, natural |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
AzureCreateResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| include | array | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes : - code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.- message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.- reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro). |
No | |
| input | chaîne ou tableau | No | ||
| instructions | string | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Déploiement de modèle à utiliser pour la création de cette réponse. | Yes | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| prompt | object | Référence à un modèle d’invite et à ses variables. | No | |
| └─ id | string | Identificateur unique du modèle d’invite à utiliser. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. | No | |
| └─ version | string | Version facultative du modèle d’invite. | No | |
| reasoning | object |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| └─ generate_summary | enum |
Déconseillé : utilisez summary à la place.Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| └─ summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| store | boolean | Indique s’il faut stocker la réponse du modèle généré pour une récupération ultérieure via l’API. | No | True |
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. | No | False |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | 1 |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indique que le modèle doit utiliser un outil intégré pour générer une réponse. | No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle, telles que la recherche de fichiers. - Appels de fonction (outils personnalisés) : fonctions définies par vous, permettant au modèle d’appeler votre propre code. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | 1 |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No |
AzureCreateSpeechRequestMultiPart
Représentation des options de requête qui contrôlent le comportement d’une opération de synthèse vocale.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texte pour lequel générer l’audio. La longueur maximale est de 4 096 caractères. | Yes | |
| instructions | string | Contrôlez la voix de votre audio généré avec des instructions supplémentaires. Ne fonctionne pas avec tts-1 ou tts-1-hd. |
No | |
| model | string | Modèle à utiliser pour cette demande de synthèse vocale. | Yes | |
| response_format | object | Formats de sortie audio pris en charge pour la synthèse vocale. | No | |
| speed | number | Vitesse de la parole pour l’audio généré. Les valeurs sont valides dans la plage comprise entre 0,25 et 4.0, avec 1,0 les valeurs par défaut et supérieures correspondant à la reconnaissance vocale plus rapide. | No | 1 |
| stream_format | enum | Format dans lequel diffuser l’audio. Les formats pris en charge sont sse et audio.
sse n’est pas pris en charge pour tts-1 ou tts-1-hd.Valeurs possibles : sse, audio |
No | |
| voice | object | Yes |
AzureCreateTranscriptionRequestMultiPart
Informations de configuration pour une demande de transcription audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | No | ||
| └─ prefix_padding_ms | integer | Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). | No | 300 |
| └─ silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | 200 |
| └─ threshold | number | Seuil de sensibilité (0,0 à 1,0) pour la détection d’activité vocale. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. | No | 0.5 |
| └─ type | enum | Doit être défini pour activer la segmentation manuelle à server_vad l’aide du VAD côté serveur.Valeurs possibles : server_vad |
No | |
| file | string | Yes | ||
| filename | string | Nom de fichier facultatif ou identificateur descriptif à associer aux données audio. | No | |
| include[] | array | Informations supplémentaires à inclure dans la réponse de transcription.logprobs retourne les probabilités de journal des jetons dans la réponse pour comprendre la confiance du modèle dans la transcription.logprobs fonctionne uniquement avec response_format défini sur json et uniquement avec les modèles gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. |
No | |
| language | string | Langue de l’audio d’entrée. L’approvisionnement du langage d’entrée au format ISO-639-1 (par exemple en) améliore la précision et la latence. |
No | |
| model | string | Modèle à utiliser pour cette demande de transcription. | No | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit correspondre à la langue audio. | No | |
| response_format | object | No | ||
| stream | boolean | Si la valeur est true, les données de réponse du modèle sont transmises au client au fur et à mesure qu’elles sont générées à l’aide d’événements envoyés par le serveur. Remarque : La diffusion en continu n’est pas prise en charge pour le whisper-1 modèle et sera ignorée. |
No | False |
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
| timestamp_granularities[] | array | Granularités d’horodatage à remplir pour cette transcription.
response_format doit être défini verbose_json pour utiliser des granularités d’horodatage. L’une ou l’autre de ces options sont prises en charge : wordou segment. Remarque : Il n’existe aucune latence supplémentaire pour les horodatages de segment, mais la génération d’horodatages de mots entraîne une latence supplémentaire. |
No | ['segment'] |
AzureCreateTranslationRequestMultiPart
Informations de configuration pour une demande de transcription audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | Yes | ||
| filename | string | Nom de fichier facultatif ou identificateur descriptif à associer aux données audio | No | |
| model | string | Modèle à utiliser pour cette demande de traduction. | No | |
| prompt | string | Texte facultatif pour guider le style du modèle ou continuer un segment audio précédent. L’invite doit être en anglais. | No | |
| response_format | object | No | ||
| temperature | number | Température d’échantillonnage comprise entre 0 et 1. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Si la valeur est 0, le modèle utilise la probabilité de journal pour augmenter automatiquement la température jusqu’à ce que certains seuils soient atteints. | No | 0 |
AzureErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | object | Détails de l’erreur. | No | |
| └─ code | string | Identificateur distinct généré par l’ordinateur pour l’erreur. | No | |
| └─ inner_error | No | |||
| └─ message | string | Message lisible par l’homme associé à l’erreur. | No | |
| └─ param | string | Le cas échéant, le paramètre d’entrée de requête associé à l’erreur | No | |
| └─ type | enum | Type d’objet, toujours « error ». Valeurs possibles : error |
No |
AzureEvalAPICompletionsSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | array | No |
AzureEvalAPIModelSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| max_tokens | integer | Nombre maximal de jetons dans la sortie générée. | No | |
| reasoning_effort | enum | Contrôle le niveau d’effort de raisonnement appliqué pendant la génération. Valeurs possibles : low, , mediumhigh |
No | |
| seed | integer | Valeur de départ pour initialiser la randomité pendant l’échantillonnage. | No | |
| temperature | number | Une température plus élevée augmente l’aléatoire dans les sorties. | No | |
| top_p | number | Alternative à la température pour l’échantillonnage du noyau ; 1.0 inclut tous les jetons. | No |
AzureEvalAPIResponseSamplingParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parallel_tool_calls | boolean | No | ||
| response_format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tools | array | No |
AzureFileExpiryAnchor
| Property | Value |
|---|---|
| Type | string |
| Values | created_at |
AzureFineTuneReinforcementMethod
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. | Yes | |
| └─ calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | No | |
| └─ evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | No | |
| └─ model | string | Modèle à utiliser pour l’évaluation. | No | |
| └─ name | string | Nom du classateur. | No | |
| └─ operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
No | |
| └─ range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| └─ reference | string | Texte en cours de classement. | No | |
| └─ sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| └─ type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
No | |
| hyperparameters | OpenAI.FineTuneReinforcementHyperparameters | Les hyperparamètres utilisés pour le travail de réglage précis du renforcement. | No | |
| response_format | object | No | ||
| └─ json_schema | object | Schéma JSON pour le format de réponse | No | |
| └─ type | enum | Type de format de réponse. Valeurs possibles : json_schema |
No |
AzureImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | JSON encodé en base64 de l’image générée. Valeur par défaut pour gpt-image-1les modèles -series, et présente uniquement si response_format elle est définie b64_json pour dall-e-2 et dall-e-3. |
No | |
| content_filter_results | AzureContentFilterImageResponseResults | Résultat d’un filtre de contenu pour le contenu de réponse de sortie d’une opération de génération d’image. | Yes | |
| prompt_filter_results | AzureContentFilterImagePromptResults | Résultat d’un filtre de contenu pour le contenu de la demande d’entrée d’une opération de génération d’image. | Yes | |
| revised_prompt | string | Pour dall-e-3 uniquement, l’invite révisée utilisée pour générer l’image. |
No | |
| url | string | Lorsque vous utilisez dall-e-2 ou dall-e-3, l’URL de l’image générée est response_format définie url sur (valeur par défaut). Non pris en charge pour gpt-image-1les modèles -series. |
No |
AzureImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | GPT-image-1 uniquement : paramètre d’arrière-plan utilisé pour la génération d’image.
transparentOu opaque .Valeurs possibles : transparent, opaque |
No | |
| created | integer | Horodatage Unix (en secondes) de la création de l’image. | Yes | |
| data | array | No | ||
| output_format | enum | Format de sortie de la génération d’image. Soit png, webpou jpeg.Valeurs possibles : png, , webpjpeg |
No | |
| quality | enum | Qualité de l’image générée. Soit low, mediumou high.Valeurs possibles : low, , mediumhigh |
No | |
| size | enum | Taille de l’image générée. Soit 1024x1024, 1024x1536ou 1536x1024.Valeurs possibles : 1024x1024, , 1024x15361536x1024 |
No | |
| usage | object | Pour gpt-image-1les modèles de série uniquement, les informations d’utilisation des jetons pour la génération d’image. |
No | |
| └─ input_tokens | integer | Nombre de jetons (images et texte) dans l’invite d’entrée. | No | |
| └─ input_tokens_details | object | Les jetons d’entrée indiquent des informations détaillées pour la génération d’images. | No | |
| └─ image_tokens | integer | Nombre de jetons d’image dans l’invite d’entrée. | No | |
| └─ text_tokens | integer | Nombre de jetons de texte dans l’invite d’entrée. | No | |
| └─ output_tokens | integer | Nombre de jetons d’image dans l’image de sortie. | No | |
| └─ total_tokens | integer | Nombre total de jetons (images et texte) utilisés pour la génération d’images. | No |
AzureListFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Valeurs possibles : list |
Yes |
AzureOpenAIFile
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | integer | Taille du fichier, en octets. | Yes | |
| created_at | integer | Horodatage Unix (en secondes) pour lequel le fichier a été créé. | Yes | |
| expires_at | integer | Horodatage Unix (en secondes) pour l’expiration du fichier. | No | |
| filename | string | Nom du fichier. | Yes | |
| id | string | Identificateur de fichier, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | enum | Type d’objet, qui est toujours file.Valeurs possibles : file |
Yes | |
| purpose | enum | Objectif prévu du fichier. Les valeurs prises en charge sont assistants, , assistants_outputbatch, batch_outputet fine-tunefine-tune-results.Valeurs possibles : assistants, , assistants_outputbatch, batch_outputfine-tune, fine-tune-resultsevals |
Yes | |
| status | enum | Valeurs possibles : uploaded, , pendingrunning, processederror, deletingdeleted |
Yes | |
| status_details | string | Deprecated. Pour plus d’informations sur la raison de l’échec de la validation d’un fichier d’entraînement de réglage précis, consultez le error champ sur fine_tuning.job. |
No |
AzureOpenAIVideoGenerationErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Identificateur distinct généré par l’ordinateur pour l’erreur. | No | |
| inner_error | object | Le cas échéant, une erreur en amont qui provient de cette erreur. | No | |
| └─ code | enum | Code associé à l’erreur interne. Valeurs possibles : ResponsibleAIPolicyViolation |
No | |
| └─ error_details | Détails du résultat du filtre de contenu associés à l’erreur interne. | No | ||
| └─ revised_prompt | string | Le cas échéant, l’invite modifiée utilisée pour la génération. | No | |
| message | string | Message lisible par l’homme associé à l’erreur. | No | |
| param | string | Le cas échéant, le paramètre d’entrée de requête associé à l’erreur | No | |
| type | string | Le cas échéant, le numéro de ligne d’entrée associé à l’erreur. | No |
AzureResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | Yes | |
| error | object | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | Yes | |
| └─ code | OpenAI.ResponseErrorCode | Code d’erreur de la réponse. | No | |
| └─ message | string | Description lisible par l’homme de l’erreur. | No | |
| id | string | Identificateur unique pour cette réponse. | Yes | |
| incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | Yes | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| instructions | chaîne ou tableau | Yes | ||
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| model | string | Modèle utilisé pour générer cette réponse. | Yes | |
| object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Yes | |
| output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
Yes | |
| output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Yes | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| prompt | object | Référence à un modèle d’invite et à ses variables. | No | |
| └─ id | string | Identificateur unique du modèle d’invite à utiliser. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. | No | |
| └─ version | string | Version facultative du modèle d’invite. | No | |
| reasoning | object |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| └─ generate_summary | enum |
Déconseillé : utilisez summary à la place.Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| └─ summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
Yes | |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indique que le modèle doit utiliser un outil intégré pour générer une réponse. | No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
Yes | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | Yes |
AzureSearchChatDataSource
Représente une configuration de source de données qui utilisera une ressource de recherche Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Informations de paramètre pour contrôler l’utilisation de la source de données de recherche Azure. | Yes | |
| └─ allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| └─ authentication | object | No | ||
| └─ access_token | string | No | ||
| └─ key | string | No | ||
| └─ managed_identity_resource_id | string | No | ||
| └─ type | enum | Valeurs possibles : access_token |
No | |
| └─ embedding_dependency | object | Représente une source de vectorisation qui effectue des appels de service public sur un déploiement de modèle incorporé OpenAI Azure. | No | |
| └─ authentication | AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions | Mécanisme d’authentification à utiliser avec la source de vectorisation basée sur le point de terminaison. L’authentification par point de terminaison prend en charge les mécanismes de clé d’API et de jeton d’accès. |
No | |
| └─ deployment_name | string | Déploiement du modèle d’incorporation à utiliser pour la vectorisation. Ce déploiement doit exister dans le même Azure ressource OpenAI que le déploiement de modèle utilisé pour les achèvements de conversation. | No | |
| └─ dimensions | integer | Nombre de dimensions à demander sur les incorporations. Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures. |
No | |
| └─ endpoint | string | Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées. Il doit être au format suivant : https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. |
No | |
| └─ type | enum | Identificateur de type, toujours « intégré » pour ce type de source de vectorisation. Valeurs possibles : integrated |
No | |
| └─ endpoint | string | Chemin d’accès absolu du point de terminaison pour la ressource de recherche Azure à utiliser. | No | |
| └─ fields_mapping | object | Mappages de champs à utiliser avec la ressource de recherche Azure. | No | |
| └─ content_fields | array | Noms des champs d’index qui doivent être traités comme du contenu. | No | |
| └─ content_fields_separator | string | Modèle de séparation que les champs de contenu doivent utiliser. | No | |
| └─ filepath_field | string | Nom du champ d’index à utiliser comme chemin de fichier. | No | |
| └─ image_vector_fields | array | Noms des champs qui représentent des données de vecteur d’image. | No | |
| └─ title_field | string | Nom du champ d’index à utiliser comme titre. | No | |
| └─ url_field | string | Nom du champ d’index à utiliser comme URL. | No | |
| └─ vector_fields | array | Noms des champs qui représentent des données vectorielles. | No | |
| └─ filter | string | Filtre à appliquer à la recherche. | No | |
| └─ in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation des données indexées. | No | |
| └─ include_contexts | array | Propriétés du contexte de sortie à inclure dans la réponse. Par défaut, les citations et l’intention sont demandées. |
No | ['citations', 'intent'] |
| └─ index_name | string | Nom de l’index à utiliser, tel que spécifié dans la ressource de recherche Azure. | No | |
| └─ max_search_queries | integer | Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur. Par défaut, le système effectue une détermination automatique. |
No | |
| └─ query_type | enum | Type de requête pour la ressource de recherche Azure à utiliser. Valeurs possibles : simple, , semanticvector, vector_simple_hybrid,vector_semantic_hybrid |
No | |
| └─ semantic_configuration | string | Configuration sémantique supplémentaire pour la requête. | No | |
| └─ strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible. |
No | |
| └─ top_n_documents | integer | Nombre configuré de documents à présenter dans la requête. | No | |
| type | enum | Identificateur de type discriminé, qui est toujours « azure_search ». Valeurs possibles : azure_search |
Yes |
AzureUserSecurityContext
Le contexte de sécurité utilisateur contient plusieurs paramètres qui décrivent l’application elle-même et l’utilisateur final qui interagit avec l’application. Ces champs aident vos équipes d’opérations de sécurité à examiner et à atténuer les incidents de sécurité en fournissant une approche complète de la protection de vos applications IA. Learn plus sur la protection des applications IA à l’aide de Microsoft Defender for Cloud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | Nom de l’application. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_id | string | Cet identificateur est l’ID d’objet utilisateur Microsoft Entra ID (anciennement Azure Active Directory) utilisé pour authentifier les utilisateurs finaux dans l’application IA générative. Les informations personnelles sensibles ne doivent pas être incluses dans ce champ. | No | |
| end_user_tenant_id | string | L’ID de locataire Microsoft 365 auquel appartient l’utilisateur final. Il est nécessaire lorsque l’application IA générative est multilocataire. | No | |
| source_ip | string | Capture l’adresse IP du client d’origine. | No |
ChatCompletionMessageToolCallsItem
Les appels d’outil générés par le modèle, tels que les appels de fonction.
Tableau de : OpenAI.ChatCompletionMessageToolCall
CreateVideoGenerationRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| height | integer | Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes | |
| model | string | Nom du déploiement à utiliser pour cette demande. | Yes | |
| n_seconds | integer | Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. | No | 5 |
| n_variants | integer | Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. | No | 1 |
| prompt | string | Invite de ce travail de génération de vidéos. | Yes | |
| width | integer | Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes |
CreateVideoGenerationWithMediaRequestMultiPart
Propriétés d’une demande de travail de génération vidéo avec des fichiers multimédias.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| height | integer | Hauteur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes | |
| inpaint_items | array | Éléments d’inpainting facultatifs pour ce travail de génération de vidéos. | No | |
| model | string | Nom du déploiement à utiliser pour cette demande. | Yes | |
| n_seconds | integer | Durée du travail de génération de vidéos. Doit être compris entre 1 et 20 secondes. | No | 5 |
| n_variants | integer | Nombre de vidéos à créer en tant que variantes pour ce travail. Doit être compris entre 1 et 5. Les dimensions plus petites permettent davantage de variantes. | No | 1 |
| prompt | string | Invite de ce travail de génération de vidéos. | Yes | |
| width | integer | Largeur de la vidéo. Les dimensions suivantes sont prises en charge : 480x480, 854x480, 720x720, 1280x720, 1080x1080 et 1920x1080 dans les orientations paysage et portrait. | Yes |
CropBounds
Limites de rognage d’un élément inpainting. Cela spécifie la zone de l’élément multimédia qui doit être utilisée pour l’inpainting.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bottom_fraction | number | Limite inférieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. | No | 1 |
| left_fraction | number | Limite gauche de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. | No | 0 |
| right_fraction | number | Limite droite de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. | No | 1 |
| top_fraction | number | Limite supérieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. | No | 0 |
ElasticsearchChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Informations de paramètre pour contrôler l’utilisation de la source de données Elasticsearch. | Yes | |
| └─ allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| └─ authentication | object | No | ||
| └─ encoded_api_key | string | No | ||
| └─ key | string | No | ||
| └─ key_id | string | No | ||
| └─ type | enum | Valeurs possibles : encoded_api_key |
No | |
| └─ embedding_dependency | AzureChatDataSourceVectorizationSource | Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données. | No | |
| └─ endpoint | string | No | ||
| └─ fields_mapping | object | No | ||
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation des données indexées. | No | |
| └─ include_contexts | array | Propriétés du contexte de sortie à inclure dans la réponse. Par défaut, les citations et l’intention sont demandées. |
No | ['citations', 'intent'] |
| └─ index_name | string | No | ||
| └─ max_search_queries | integer | Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur. Par défaut, le système effectue une détermination automatique. |
No | |
| └─ query_type | enum | Valeurs possibles : simple, vector |
No | |
| └─ strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible. |
No | |
| └─ top_n_documents | integer | Nombre configuré de documents à présenter dans la requête. | No | |
| type | enum | Identificateur de type discriminé, qui est toujours « elasticsearch ». Valeurs possibles : elasticsearch |
Yes |
InpaintItem
Élément inpainting pour un travail de génération de vidéos. Cela spécifie l’élément multimédia qui doit être utilisé pour l’inpainting dans la génération de vidéo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| crop_bounds | object | Limites de rognage d’un élément inpainting. Cela spécifie la zone de l’élément multimédia qui doit être utilisée pour l’inpainting. |
No | |
| └─ bottom_fraction | number | Limite inférieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. | No | 1 |
| └─ left_fraction | number | Limite gauche de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. | No | 0 |
| └─ right_fraction | number | Limite droite de la zone de rognage spécifiée en fraction de la largeur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la largeur de l’élément multimédia d’origine. | No | 1 |
| └─ top_fraction | number | Limite supérieure de la zone de rognage spécifiée en fraction de la hauteur de l’élément multimédia d’origine. Doit être compris entre 0,0 et 1,0. Utilisez par exemple 0,5 pour la moitié de la hauteur de l’élément multimédia d’origine. | No | 0 |
| file_name | string | Nom de fichier de l’élément multimédia. Il doit correspondre au nom de fichier d’une pièce jointe dans cette demande. | Yes | |
| frame_index | integer | Index d’image pour cet élément multimédia. Cela spécifie l’image de départ dans la vidéo générée résultante pour cet élément inpainting. | Yes | 0 |
| type | object | Type de l’élément inpainting. | Yes |
JobStatus
État d’un travail de génération de vidéos.
| Property | Value |
|---|---|
| Description | État d’un travail de génération de vidéos. |
| Type | string |
| Values | preprocessingqueuedrunningprocessingcancelledsucceededfailed |
MediaItemType
Type de l’élément inpainting.
| Property | Value |
|---|---|
| Description | Type de l’élément inpainting. |
| Type | string |
| Values | image |
MongoDBChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Informations de paramètre pour contrôler l’utilisation de la source de données MongoDB. | Yes | |
| └─ allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| └─ app_name | string | Nom de l’application MongoDB. | No | |
| └─ authentication | object | No | ||
| └─ password | string | No | ||
| └─ type | enum | Valeurs possibles : username_and_password |
No | |
| └─ username | string | No | ||
| └─ collection_name | string | Nom de la collection MongoDB. | No | |
| └─ database_name | string | Nom de la base de données MongoDB. | No | |
| └─ embedding_dependency | object | Représente une source de vectorisation qui effectue des appels de service public sur un déploiement de modèle incorporé OpenAI Azure. | No | |
| └─ authentication | AzureChatDataSourceApiKeyAuthenticationOptions ou AzureChatDataSourceAccessTokenAuthenticationOptions | Mécanisme d’authentification à utiliser avec la source de vectorisation basée sur le point de terminaison. L’authentification par point de terminaison prend en charge les mécanismes de clé d’API et de jeton d’accès. |
No | |
| └─ deployment_name | string | Déploiement du modèle d’incorporation à utiliser pour la vectorisation. Ce déploiement doit exister dans le même Azure ressource OpenAI que le déploiement de modèle utilisé pour les achèvements de conversation. | No | |
| └─ dimensions | integer | Nombre de dimensions à demander sur les incorporations. Uniquement pris en charge dans les modèles « text-embedding-3 » et versions ultérieures. |
No | |
| └─ endpoint | string | Spécifie l’URL du point de terminaison de ressource à partir de laquelle les incorporations doivent être récupérées. Il doit être au format suivant : https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. Le paramètre de requête api-version n’est pas autorisé. |
No | |
| └─ type | enum | Identificateur de type, toujours « deployment_name » pour ce type de source de vectorisation. Valeurs possibles : deployment_name |
No | |
| └─ endpoint | string | Nom du point de terminaison du cluster MongoDB. | No | |
| └─ fields_mapping | object | Mappages de champs à appliquer aux données utilisées par la source de données MongoDB. Notez que les mappages de contenu et de champ vectoriel sont requis pour MongoDB. |
No | |
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ vector_fields | array | No | ||
| └─ in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation des données indexées. | No | |
| └─ include_contexts | array | Propriétés du contexte de sortie à inclure dans la réponse. Par défaut, les citations et l’intention sont demandées. |
No | ['citations', 'intent'] |
| └─ index_name | string | Nom de l’index MongoDB. | No | |
| └─ max_search_queries | integer | Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur. Par défaut, le système effectue une détermination automatique. |
No | |
| └─ strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible. |
No | |
| └─ top_n_documents | integer | Nombre configuré de documents à présenter dans la requête. | No | |
| type | enum | Identificateur de type discriminé, qui est toujours « mongo_db ». Valeurs possibles : mongo_db |
Yes |
OpenAI.Annotation
Discriminateur pour OpenAI.Annotation
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
file_citation |
OpenAI.AnnotationFileCitation |
url_citation |
OpenAI.AnnotationUrlCitation |
file_path |
OpenAI.AnnotationFilePath |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.AnnotationType | Yes |
OpenAI.AnnotationFileCitation
Citation à un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID du fichier. | Yes | |
| filename | string | Nom de fichier cité. | Yes | |
| index | integer | Index du fichier dans la liste des fichiers. | Yes | |
| type | enum | Type de la citation de fichier. Toujours file_citation.Valeurs possibles : file_citation |
Yes |
OpenAI.AnnotationFilePath
Chemin d’accès à un fichier.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | ID du fichier. | Yes | |
| index | integer | Index du fichier dans la liste des fichiers. | Yes | |
| type | enum | Type du chemin d’accès au fichier. Toujours file_path.Valeurs possibles : file_path |
Yes |
OpenAI.AnnotationType
| Property | Value |
|---|---|
| Type | string |
| Values | file_citationurl_citationfile_pathcontainer_file_citation |
OpenAI.AnnotationUrlCitation
Citation d’une ressource web utilisée pour générer une réponse de modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Index du dernier caractère de la citation d’URL dans le message. | Yes | |
| start_index | integer | Index du premier caractère de la citation d’URL dans le message. | Yes | |
| title | string | Titre de la ressource web. | Yes | |
| type | enum | Type de la citation d’URL. Toujours url_citation.Valeurs possibles : url_citation |
Yes | |
| url | string | URL de la ressource web. | Yes |
OpenAI.ApproximateLocation
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| city | string | No | ||
| country | string | No | ||
| region | string | No | ||
| timezone | string | No | ||
| type | enum | Valeurs possibles : approximate |
Yes |
OpenAI.AudioResponseFormat
Format de la sortie, dans l’une des options suivantes : json, , textsrt, verbose_json, ou vtt. Pour gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. Le seul format pris en charge est json.
| Property | Value |
|---|---|
| Description | Format de la sortie, dans l’une des options suivantes : json, , textsrt, verbose_json, ou vtt. Pour gpt-4o-transcribe, , gpt-4o-transcribe-diarize, gpt-4o-mini-transcribeet gpt-4o-mini-transcribe-2025-12-15. Le seul format pris en charge est json. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
OpenAI.AutoChunkingStrategyRequestParam
Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Toujours auto.Valeurs possibles : auto |
Yes |
OpenAI.ChatCompletionFunctionCallOption
La spécification d’une fonction particulière via {"name": "my_function"} force le modèle à appeler cette fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de la fonction à appeler. | Yes |
OpenAI.ChatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| parameters | Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. Consultez la référence de schéma JSON pour obtenir de la documentation sur le format. Omettre parameters définit une fonction avec une liste de paramètres vide. |
No |
OpenAI.ChatCompletionMessageAudioChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | No | ||
| expires_at | integer | No | ||
| id | string | No | ||
| transcript | string | No |
OpenAI.ChatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Fonction appelée par le modèle. | Yes | |
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. | No | |
| id | string | ID de l’appel de l’outil. | Yes | |
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
Yes |
OpenAI.ChatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. | No | |
| └─ name | string | Nom de la fonction à appeler. | No | |
| id | string | ID de l’appel de l’outil. | No | |
| index | integer | Yes | ||
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
No |
OpenAI.ChatCompletionNamedToolChoice
Spécifie un outil que le modèle doit utiliser. Permet de forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Nom de la fonction à appeler. | No | |
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
Yes |
OpenAI.ChatCompletionRequestAssistantMessage
Messages envoyés par le modèle en réponse aux messages utilisateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Données relatives à une réponse audio précédente du modèle. | No | |
| └─ id | string | Identificateur unique pour une réponse audio précédente du modèle. | No | |
| content | chaîne ou tableau | No | ||
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| refusal | string | Message de refus de l’assistant. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas assistant.Valeurs possibles : assistant |
Yes | |
| tool_calls | ChatCompletionMessageToolCallsItem | Les appels d’outil générés par le modèle, tels que les appels de fonction. | No |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Message de refus généré par le modèle. | Yes | |
| text | string | Contenu du texte. | Yes | |
| type | enum | Type de la partie de contenu. Valeurs possibles : refusal |
Yes |
OpenAI.ChatCompletionRequestDeveloperMessage
Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, developer les messages remplacent les messages précédents system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Yes | ||
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas developer.Valeurs possibles : developer |
Yes |
OpenAI.ChatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | Contenu du message de fonction. | Yes | |
| name | string | Nom de la fonction à appeler. | Yes | |
| role | enum | Rôle de l’auteur des messages, dans ce cas function.Valeurs possibles : function |
Yes |
OpenAI.ChatCompletionRequestMessage
Discriminateur pour OpenAI.ChatCompletionRequestMessage
Ce composant utilise la propriété role pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
system |
OpenAI.ChatCompletionRequestSystemMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | No | ||
| role | object | Rôle de l’auteur d’un message | Yes |
OpenAI.ChatCompletionRequestMessageContentPart
Discriminateur pour OpenAI.ChatCompletionRequestMessageContentPart
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ChatCompletionRequestMessageContentPartType | Yes |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Données audio encodées en base64. | No | |
| └─ format | enum | Format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ». Valeurs possibles : wav, mp3 |
No | |
| type | enum | Type de la partie de contenu. Toujours input_audio.Valeurs possibles : input_audio |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartFile
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | object | Yes | ||
| └─ file_data | string | Données de fichier encodées en base64, utilisées lors du passage du fichier au modèle sous forme de chaîne. | No | |
| └─ file_id | string | ID d’un fichier chargé à utiliser comme entrée. | No | |
| └─ filename | string | Nom du fichier, utilisé lors du passage du fichier au modèle sous forme de chaîne. | No | |
| type | enum | Type de la partie de contenu. Toujours file.Valeurs possibles : file |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Spécifie le niveau de détail de l’image. Valeurs possibles : auto, , lowhigh |
No | |
| └─ url | string | URL de l’image ou des données d’image encodées en base64. | No | |
| type | enum | Type de la partie de contenu. Valeurs possibles : image_url |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Message de refus généré par le modèle. | Yes | |
| type | enum | Type de la partie de contenu. Valeurs possibles : refusal |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Contenu du texte. | Yes | |
| type | enum | Type de la partie de contenu. Valeurs possibles : text |
Yes |
OpenAI.ChatCompletionRequestMessageContentPartType
| Property | Value |
|---|---|
| Type | string |
| Values | textfileinput_audioimage_urlrefusal |
OpenAI.ChatCompletionRequestSystemMessage
Instructions fournies par le développeur que le modèle doit suivre, quels que soient les messages envoyés par l’utilisateur. Avec les modèles o1 et les versions ultérieures, utilisez developer plutôt des messages à cet effet.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Yes | ||
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas system.Valeurs possibles : system |
Yes |
OpenAI.ChatCompletionRequestSystemMessageContentPart
References: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Yes | ||
| role | enum | Rôle de l’auteur des messages, dans ce cas tool.Valeurs possibles : tool |
Yes | |
| tool_call_id | string | Appel de l’outil auquel ce message répond. | Yes |
OpenAI.ChatCompletionRequestToolMessageContentPart
References: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Messages envoyés par un utilisateur final, contenant des invites ou des informations de contexte supplémentaires.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Yes | ||
| name | string | Nom facultatif du participant. Fournit les informations de modèle pour différencier les participants du même rôle. | No | |
| role | enum | Rôle de l’auteur des messages, dans ce cas user.Valeurs possibles : user |
Yes |
OpenAI.ChatCompletionRequestUserMessageContentPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | object | Yes | ||
| └─ file_data | string | Données de fichier encodées en base64, utilisées lors du passage du fichier au modèle sous forme de chaîne. | No | |
| └─ file_id | string | ID d’un fichier chargé à utiliser comme entrée. | No | |
| └─ filename | string | Nom du fichier, utilisé lors du passage du fichier au modèle sous forme de chaîne. | No | |
| image_url | object | Yes | ||
| └─ detail | enum | Spécifie le niveau de détail de l’image. Valeurs possibles : auto, , lowhigh |
No | |
| └─ url | string | URL de l’image ou des données d’image encodées en base64. | No | |
| input_audio | object | Yes | ||
| └─ data | string | Données audio encodées en base64. | No | |
| └─ format | enum | Format des données audio encodées. Prend actuellement en charge « wav » et « mp3 ». Valeurs possibles : wav, mp3 |
No | |
| text | string | Contenu du texte. | Yes | |
| type | enum | Type de la partie de contenu. Toujours file.Valeurs possibles : file |
Yes |
OpenAI.ChatCompletionRole
Rôle de l’auteur d’un message
| Property | Value |
|---|---|
| Description | Rôle de l’auteur d’un message |
| Type | string |
| Values | systemdeveloperuserassistanttoolfunction |
OpenAI.ChatCompletionStreamOptions
Options de réponse de diffusion en continu. Définissez cette valeur uniquement lorsque vous définissez stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si cette option est définie, un bloc supplémentaire est diffusé en continu avant le data: [DONE] message. Le usage champ de ce bloc affiche les statistiques d’utilisation des jetons pour l’ensemble de la requête, et le choices champ sera toujours un tableau vide.Tous les autres blocs incluent également un usage champ, mais avec une valeur Null.
NOTE: Si le flux est interrompu, vous ne recevez peut-être pas le bloc d’utilisation final qui contient l’utilisation totale du jeton pour la demande. |
No |
OpenAI.ChatCompletionStreamResponseDelta
Delta de saisie semi-automatique de conversation généré par les réponses de modèle diffusées en continu.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | No | ||
| └─ data | string | No | ||
| └─ expires_at | integer | No | ||
| └─ id | string | No | ||
| └─ transcript | string | No | ||
| content | string | Contenu du message de bloc. | No | |
| function_call | object | Déconseillé et remplacé par tool_calls. Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
No | |
| └─ arguments | string | No | ||
| └─ name | string | No | ||
| refusal | string | Message de refus généré par le modèle. | No | |
| role | object | Rôle de l’auteur d’un message | No | |
| tool_calls | array | No |
OpenAI.ChatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Liste d’entiers représentant la représentation UTF-8 octets du jeton. Utile dans les cas où les caractères sont représentés par plusieurs jetons et leurs représentations d’octets doivent être combinés pour générer la représentation textuelle correcte. Peut être null s’il n’y a pas de représentation d’octets pour le jeton. |
Yes | |
| logprob | number | Probabilité de journal de ce jeton, s’il se trouve dans les 20 premiers jetons les plus probables. Sinon, la valeur -9999.0 est utilisée pour indiquer que le jeton est très peu probable. |
Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Liste des jetons les plus probables et de leur probabilité de journal, à cette position de jeton. Dans de rares cas, il peut y avoir moins de nombre de demandes top_logprobs retournées. |
Yes |
OpenAI.ChatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | OpenAI.FunctionObject | Yes | ||
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
Yes |
OpenAI.ChatCompletionToolChoiceOption
Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
La spécification d’un outil particulier via {"type": "function", "function": {"name": "my_function"}} force le modèle à appeler cet outil.
none est la valeur par défaut lorsqu’aucun outil n’est présent.
auto est la valeur par défaut si les outils sont présents.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | Nom de la fonction à appeler. | No | |
| type | enum | Type de l’outil. Actuellement, seule function la prise en charge est prise en charge.Valeurs possibles : function |
Yes |
OpenAI.ChatOutputPrediction
Représentation de base de la sortie prédite à partir d’un modèle.
Discriminateur pour OpenAI.ChatOutputPrediction
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
content |
OpenAI.ChatOutputPredictionContent |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ChatOutputPredictionType | Yes |
OpenAI.ChatOutputPredictionContent
Contenu de sortie prédit statique, tel que le contenu d’un fichier texte régénéré.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Yes | ||
| type | enum | Type du contenu prédit que vous souhaitez fournir. Ce type est actuellement toujours content.Valeurs possibles : content |
Yes |
OpenAI.ChatOutputPredictionType
| Property | Value |
|---|---|
| Type | string |
| Values | content |
OpenAI.ChunkingStrategyRequestParam
Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie.
Discriminateur pour OpenAI.ChunkingStrategyRequestParam
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de stratégie de segmentation. Valeurs possibles : auto, static |
Yes |
OpenAI.ChunkingStrategyResponseParam
Discriminateur pour OpenAI.ChunkingStrategyResponseParam
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
other |
OpenAI.OtherChunkingStrategyResponseParam |
static |
OpenAI.StaticChunkingStrategyResponseParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : static, other |
Yes |
OpenAI.CodeInterpreterOutput
Discriminateur pour OpenAI.CodeInterpreterOutput
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
image |
OpenAI.CodeInterpreterOutputImage |
logs |
OpenAI.CodeInterpreterOutputLogs |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.CodeInterpreterOutputType | Yes |
OpenAI.CodeInterpreterOutputImage
Sortie de l’image de l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de la sortie. Always 'image'. Valeurs possibles : image |
Yes | |
| url | string | URL de la sortie de l’image à partir de l’interpréteur de code. | Yes |
OpenAI.CodeInterpreterOutputLogs
Sortie des journaux à partir de l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Sortie des journaux à partir de l’interpréteur de code. | Yes | |
| type | enum | Type de la sortie. Always 'logs'. Valeurs possibles : logs |
Yes |
OpenAI.CodeInterpreterOutputType
| Property | Value |
|---|---|
| Type | string |
| Values | logsimage |
OpenAI.CodeInterpreterTool
Outil qui exécute Python code pour aider à générer une réponse à une invite.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| container | object | Configuration d’un conteneur d’interpréteur de code. Spécifiez éventuellement les ID des fichiers sur utilisant le code. | Yes | |
| └─ file_ids | array | Liste facultative des fichiers chargés à mettre à la disposition de votre code. | No | |
| └─ type | enum | Toujours auto.Valeurs possibles : auto |
No | |
| type | enum | Type de l’outil d’interpréteur de code. Toujours code_interpreter.Valeurs possibles : code_interpreter |
Yes |
OpenAI.CodeInterpreterToolAuto
Configuration d’un conteneur d’interpréteur de code. Spécifiez éventuellement les ID des fichiers sur utilisant le code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Liste facultative des fichiers chargés à mettre à la disposition de votre code. | No | |
| type | enum | Toujours auto.Valeurs possibles : auto |
Yes |
OpenAI.CodeInterpreterToolCallItemParam
Un appel d’outil pour exécuter du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code à exécuter, ou null s’il n’est pas disponible. | Yes | |
| container_id | string | ID du conteneur utilisé pour exécuter le code. | Yes | |
| outputs | array | Sorties générées par l’interpréteur de code, telles que les journaux ou les images. Peut être null si aucune sortie n’est disponible. |
Yes | |
| type | enum | Valeurs possibles : code_interpreter_call |
Yes |
OpenAI.CodeInterpreterToolCallItemResource
Un appel d’outil pour exécuter du code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code à exécuter, ou null s’il n’est pas disponible. | Yes | |
| container_id | string | ID du conteneur utilisé pour exécuter le code. | Yes | |
| outputs | array | Sorties générées par l’interpréteur de code, telles que les journaux ou les images. Peut être null si aucune sortie n’est disponible. |
Yes | |
| status | enum | Valeurs possibles : in_progress, , completedincomplete, interpreting,failed |
Yes | |
| type | enum | Valeurs possibles : code_interpreter_call |
Yes |
OpenAI.ComparisonFilter
Filtre utilisé pour comparer une clé d’attribut spécifiée à une valeur donnée à l’aide d’une opération de comparaison définie.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | Clé à comparer à la valeur. | Yes | |
| type | enum | Spécifie l’opérateur de comparaison : eq, , negt, gtelt, . lte- eq:Égale- ne: non égal- gt: supérieur à- gte: supérieur ou égal à- lt: inférieur à- lte: inférieur ou égal.Valeurs possibles : eq, , negt, gte, ltlte |
Yes | |
| value | chaîne ou nombre ou booléen | Yes |
OpenAI.CompletionUsage
Statistiques d’utilisation pour la demande d’achèvement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Nombre de jetons dans la saisie semi-automatique générée. | Yes | 0 |
| completion_tokens_details | object | Répartition des jetons utilisés dans une saisie semi-automatique. | No | |
| └─ accepted_prediction_tokens | integer | Lors de l’utilisation des sorties prédites, nombre de jetons dans la prédiction qui apparaissent dans la saisie semi-automatique. | No | 0 |
| └─ audio_tokens | integer | Jetons d’entrée audio générés par le modèle. | No | 0 |
| └─ reasoning_tokens | integer | Jetons générés par le modèle pour le raisonnement. | No | 0 |
| └─ rejected_prediction_tokens | integer | Lorsque vous utilisez des sorties prédites, nombre de jetons dans la prédiction qui n’apparaissent pas dans la saisie semi-automatique. Toutefois, comme les jetons de raisonnement, ces jetons sont toujours comptabilisés dans le nombre total de jetons d’achèvement à des fins de facturation, de sortie et de limites de fenêtre de contexte. | No | 0 |
| prompt_tokens | integer | Nombre de jetons dans l’invite. | Yes | 0 |
| prompt_tokens_details | object | Répartition des jetons utilisés dans l’invite. | No | |
| └─ audio_tokens | integer | Jetons d’entrée audio présents dans l’invite. | No | 0 |
| └─ cached_tokens | integer | Jetons mis en cache présents dans l’invite. | No | 0 |
| total_tokens | integer | Nombre total de jetons utilisés dans la requête (invite + achèvement). | Yes | 0 |
OpenAI.CompoundFilter
Combinez plusieurs filtres à l’aide and ou or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. |
Yes | |
| type | enum | Type d’opération : and ou or.Valeurs possibles : and, or |
Yes |
OpenAI.ComputerAction
Discriminateur pour OpenAI.ComputerAction
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
click |
OpenAI.ComputerActionClick |
double_click |
OpenAI.ComputerActionDoubleClick |
drag |
OpenAI.ComputerActionDrag |
move |
OpenAI.ComputerActionMove |
screenshot |
OpenAI.ComputerActionScreenshot |
scroll |
OpenAI.ComputerActionScroll |
type |
OpenAI.ComputerActionTypeKeys |
wait |
OpenAI.ComputerActionWait |
keypress |
OpenAI.ComputerActionKeyPress |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerActionType | Yes |
OpenAI.ComputerActionClick
Action de clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indique le bouton de la souris enfoncé pendant le clic. Un des left, , right, wheel, backou forward.Valeurs possibles : left, , rightwheel, back,forward |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de clic, cette propriété est toujours définie sur click.Valeurs possibles : click |
Yes | |
| x | integer | Coordonnée x où le clic s’est produit. | Yes | |
| y | integer | Coordonnée y où le clic s’est produit. | Yes |
OpenAI.ComputerActionDoubleClick
Action double-clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action en double-clic, cette propriété est toujours définie double_clicksur .Valeurs possibles : double_click |
Yes | |
| x | integer | Coordonnée x où le double-clic s’est produit. | Yes | |
| y | integer | Coordonnée y où le double-clic s’est produit. | Yes |
OpenAI.ComputerActionDrag
Action glisser.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Tableau de coordonnées représentant le chemin d’accès de l’action glisser. Les coordonnées apparaissent sous la forme d’un tableau d’objets, par exemple{ x: 100, y: 200 }, { x: 200, y: 300 } |
Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de glisser, cette propriété est toujours définie sur drag.Valeurs possibles : drag |
Yes |
OpenAI.ComputerActionKeyPress
Une collection de touches de touches que le modèle souhaite effectuer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinaison de touches que le modèle demande d’être enfoncée. Il s’agit d’un tableau de chaînes, chacun représentant une clé. | Yes | |
| type | enum | Spécifie le type d’événement. Pour une action keypress, cette propriété est toujours définie keypresssur .Valeurs possibles : keypress |
Yes |
OpenAI.ComputerActionMove
Action de déplacement de la souris.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de déplacement, cette propriété est toujours définie sur move.Valeurs possibles : move |
Yes | |
| x | integer | Coordonnée x à déplacer. | Yes | |
| y | integer | Coordonnée y à déplacer. | Yes |
OpenAI.ComputerActionScreenshot
Action de capture d’écran.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action de capture d’écran, cette propriété est toujours définie sur screenshot.Valeurs possibles : screenshot |
Yes |
OpenAI.ComputerActionScroll
Action de défilement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | Distance de défilement horizontale. | Yes | |
| scroll_y | integer | Distance de défilement verticale. | Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de défilement, cette propriété est toujours définie sur scroll.Valeurs possibles : scroll |
Yes | |
| x | integer | Coordonnée x où le défilement s’est produit. | Yes | |
| y | integer | Coordonnée y où le défilement s’est produit. | Yes |
OpenAI.ComputerActionType
| Property | Value |
|---|---|
| Type | string |
| Values | screenshotclickdouble_clickscrolltypewaitkeypressdragmove |
OpenAI.ComputerActionTypeKeys
Action à taper dans le texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texte à taper. | Yes | |
| type | enum | Spécifie le type d’événement. Pour une action de type, cette propriété est toujours définie sur type.Valeurs possibles : type |
Yes |
OpenAI.ComputerActionWait
Action d’attente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Spécifie le type d’événement. Pour une action d’attente, cette propriété est toujours définie sur wait.Valeurs possibles : wait |
Yes |
OpenAI.ComputerToolCallItemParam
Un appel d’outil à un outil d’utilisation d’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Yes | ||
| call_id | string | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. | Yes | |
| pending_safety_checks | array | Vérifications de sécurité en attente pour l’appel de l’ordinateur. | Yes | |
| type | enum | Valeurs possibles : computer_call |
Yes |
OpenAI.ComputerToolCallItemResource
Un appel d’outil à un outil d’utilisation d’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.ComputerAction | Yes | ||
| call_id | string | Identificateur utilisé lors de la réponse à l’appel de l’outil avec sortie. | Yes | |
| pending_safety_checks | array | Vérifications de sécurité en attente pour l’appel de l’ordinateur. | Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Valeurs possibles : computer_call |
Yes |
OpenAI.ComputerToolCallOutputItemOutput
Discriminateur pour OpenAI.ComputerToolCallOutputItemOutput
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
computer_screenshot |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ComputerToolCallOutputItemOutputType | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. | Yes |
OpenAI.ComputerToolCallOutputItemOutputComputerScreenshot
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | No | ||
| image_url | string | No | ||
| type | enum | Valeurs possibles : computer_screenshot |
Yes |
OpenAI.ComputerToolCallOutputItemOutputType
Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur.
| Property | Value |
|---|---|
| Description | Image de capture d’écran d’ordinateur utilisée avec l’outil d’utilisation de l’ordinateur. |
| Type | string |
| Values | computer_screenshot |
OpenAI.ComputerToolCallOutputItemParam
Sortie d’un appel d’outil informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. | No | |
| call_id | string | ID de l’appel de l’outil informatique qui a produit la sortie. | Yes | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| type | enum | Valeurs possibles : computer_call_output |
Yes |
OpenAI.ComputerToolCallOutputItemResource
Sortie d’un appel d’outil informatique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Vérifications de sécurité signalées par l’API qui ont été reconnues par le développeur. | No | |
| call_id | string | ID de l’appel de l’outil informatique qui a produit la sortie. | Yes | |
| output | OpenAI.ComputerToolCallOutputItemOutput | Yes | ||
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Valeurs possibles : computer_call_output |
Yes |
OpenAI.ComputerToolCallSafetyCheck
Contrôle de sécurité en attente pour l’appel de l’ordinateur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Type du contrôle de sécurité en attente. | Yes | |
| id | string | ID de la vérification de sécurité en attente. | Yes | |
| message | string | Détails sur le contrôle de sécurité en attente. | Yes |
OpenAI.ComputerUsePreviewTool
Outil qui contrôle un ordinateur virtuel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | integer | Hauteur de l’affichage de l’ordinateur. | Yes | |
| display_width | integer | Largeur de l’affichage de l’ordinateur. | Yes | |
| environment | enum | Type d’environnement d’ordinateur à contrôler. Valeurs possibles : windows, , maclinux, ubuntu,browser |
Yes | |
| type | enum | Type de l’outil d’utilisation de l’ordinateur. Toujours computer_use_preview.Valeurs possibles : computer_use_preview |
Yes |
OpenAI.Coordinate
Paire de coordonnées x/y, par exemple { x: 100, y: 200 }.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. | Yes | |
| y | integer | The y-coordinate. | Yes |
OpenAI.CreateEmbeddingResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des incorporations générées par le modèle. | Yes | |
| model | string | Nom du modèle utilisé pour générer l’incorporation. | Yes | |
| object | enum | Type d’objet, qui est toujours « list ». Valeurs possibles : list |
Yes | |
| usage | object | Informations d’utilisation de la demande. | Yes | |
| └─ prompt_tokens | integer | Nombre de jetons utilisés par l’invite. | No | |
| └─ total_tokens | integer | Nombre total de jetons utilisés par la requête. | No |
OpenAI.CreateEvalItem
Message de conversation qui compose l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string ou OpenAI.EvalItemContent | Entrées de texte dans le modèle : peut contenir des chaînes de modèle. | Yes | |
| role | enum | Rôle de l’entrée de message. Un des user, , assistant, systemou developer.Valeurs possibles : user, , assistantsystem,developer |
Yes | |
| type | enum | Type de l’entrée de message. Toujours message.Valeurs possibles : message |
No |
OpenAI.CreateEvalRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom de l’exécution. | No |
OpenAI.CreateFineTuningJobRequest
Valid models:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | object | Hyperparamètres utilisés pour le travail de réglage précis. Cette valeur est désormais déconseillée en faveur de method, et doit être transmise sous le method paramètre. |
No | |
| └─ batch_size | enum | Valeurs possibles : auto |
No | |
| └─ learning_rate_multiplier | enum | Valeurs possibles : auto |
No | |
| └─ n_epochs | enum | Valeurs possibles : auto |
No | |
| integrations | array | Liste des intégrations à activer pour votre travail de réglage précis. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| method | OpenAI.FineTuneMethod | Méthode utilisée pour le réglage précis. | No | |
| model | chaîne (voir les modèles valides ci-dessous) | Nom du modèle à ajuster. | Yes | |
| seed | integer | La valeur initiale contrôle la reproductibilité du travail. La transmission des mêmes paramètres de départ et de travail doit produire les mêmes résultats, mais peut différer dans de rares cas. Si une valeur initiale n’est pas spécifiée, une valeur est générée pour vous. |
No | |
| suffix | string | Chaîne de jusqu’à 64 caractères qui seront ajoutés au nom de votre modèle affiné. Par exemple, un suffix « custom-model-name » produit un nom de modèle comme ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
No | None |
| training_file | string | ID d’un fichier chargé qui contient des données d’apprentissage. Votre jeu de données doit être mis en forme en tant que fichier JSONL. En outre, vous devez charger votre fichier à l’aide de l’objectif fine-tune.Le contenu du fichier doit différer selon que le modèle utilise la conversation, le format de saisie semi-automatique ou si la méthode de réglage précis utilise le format de préférence. |
Yes | |
| validation_file | string | ID d’un fichier chargé qui contient des données de validation. Si vous fournissez ce fichier, les données sont utilisées pour générer régulièrement des métriques de validation pendant le réglage précis. Ces métriques peuvent être consultées dans le fichier de résultats de réglage précis. Les mêmes données ne doivent pas être présentes dans les fichiers d’apprentissage et de validation. Votre jeu de données doit être mis en forme en tant que fichier JSONL. Vous devez charger votre fichier à l’aide de l’objectif fine-tune. |
No |
OpenAI.CreateFineTuningJobRequestIntegration
Discriminateur pour OpenAI.CreateFineTuningJobRequestIntegration
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
wandb |
OpenAI.CreateFineTuningJobRequestWandbIntegration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | chaîne (voir les modèles valides ci-dessous) | Yes |
OpenAI.CreateFineTuningJobRequestWandbIntegration
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : wandb |
Yes | |
| wandb | object | Yes | ||
| └─ entity | string | No | ||
| └─ name | string | No | ||
| └─ project | string | No | ||
| └─ tags | array | No |
OpenAI.CreateVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_ids | array | Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
OpenAI.CreateVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | No | |
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | Stratégie de segmentation utilisée pour segmenter le ou les fichiers. S’il n’est pas défini, utilisez la auto stratégie. |
No | |
| file_id | string | ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
Yes |
OpenAI.CreateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | object | Stratégie par défaut. Cette stratégie utilise actuellement une max_chunk_size_tokens stratégie de 800chunk_overlap_tokens400. |
No | |
| └─ static | OpenAI.StaticChunkingStrategy | No | ||
| └─ type | enum | Toujours static.Valeurs possibles : static |
No | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| file_ids | array | Liste des ID de fichier que le magasin de vecteurs doit utiliser. Utile pour les outils comme file_search ceux qui peuvent accéder aux fichiers. |
No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
OpenAI.DeleteFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Valeurs possibles : file |
Yes |
OpenAI.DeleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Valeurs possibles : vector_store.file.deleted |
Yes |
OpenAI.DeleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | enum | Valeurs possibles : vector_store.deleted |
Yes |
OpenAI.Embedding
Représente un vecteur d’incorporation retourné par le point de terminaison d’incorporation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| embedding | tableau ou chaîne | Yes | ||
| index | integer | Index de l’incorporation dans la liste des incorporations. | Yes | |
| object | enum | Type d’objet, qui est toujours « incorporation ». Valeurs possibles : embedding |
Yes |
OpenAI.Eval
Objet Eval avec des critères de configuration et de test de source de données. Un Eval représente une tâche à effectuer pour votre intégration LLM. Like:
- Améliorer la qualité de mon chatbot
- Découvrez comment mon chatbot gère le support client
- Vérifiez si o4-mini est préférable à ma casse que gpt-4o
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour l’heure de création de l’eval. | Yes | |
| data_source_config | object | Yes | ||
| └─ type | OpenAI.EvalDataSourceConfigType | No | ||
| id | string | Identificateur unique de l’évaluation. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| name | string | Nom de l’évaluation. | Yes | |
| object | enum | Type d’objet. Valeurs possibles : eval |
Yes | |
| testing_criteria | array | Liste des critères de test. | Yes | None |
OpenAI.EvalApiError
Objet représentant une réponse d’erreur de l’API Eval.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code d’erreur. | Yes | |
| message | string | Message d’erreur. | Yes |
OpenAI.EvalCompletionsRunDataSourceParams
Objet CompletionsRunDataSource décrivant une configuration d’échantillonnage de modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_messages | object | No | ||
| └─ item_reference | string | Référence à une variable dans l’espace item de noms. Ie, "item.input_trajectory" |
No | |
| └─ template | array | Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}. |
No | |
| └─ type | enum | Type de messages d’entrée. Toujours item_reference.Valeurs possibles : item_reference |
No | |
| model | string | Nom du modèle à utiliser pour générer des achèvements (par exemple, « o3-mini »). | No | |
| sampling_params | AzureEvalAPICompletionsSamplingParams | No | ||
| source | object | Yes | ||
| └─ content | array | Contenu du fichier jsonl. | No | |
| └─ created_after | integer | Horodatage Unix facultatif pour filtrer les éléments créés après cette période. | No | |
| └─ created_before | integer | Horodatage Unix facultatif pour filtrer les éléments créés avant cette heure. | No | |
| └─ id | string | Identificateur du fichier. | No | |
| └─ limit | integer | Nombre maximal facultatif d’éléments à retourner. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ model | string | Modèle facultatif à filtrer par (par exemple, « gpt-4o »). | No | |
| └─ type | enum | Type de source. Toujours stored_completions.Valeurs possibles : stored_completions |
No | |
| type | enum | Type de source de données d’exécution. Toujours completions.Valeurs possibles : completions |
Yes |
OpenAI.EvalCustomDataSourceConfigParams
Objet CustomDataSourceConfig qui définit le schéma de la source de données utilisée pour les exécutions d’évaluation. Ce schéma est utilisé pour définir la forme des données qui seront :
- Utilisé pour définir vos critères de test et
- Quelles données sont requises lors de la création d’une exécution
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_sample_schema | boolean | Indique si l’eval doit vous attendre à remplir l’exemple d’espace de noms (par exemple, en générant des réponses hors de votre source de données) | No | False |
| item_schema | object | Schéma json pour chaque ligne de la source de données. | Yes | |
| type | enum | Type de source de données. Toujours custom.Valeurs possibles : custom |
Yes |
OpenAI.EvalCustomDataSourceConfigResource
CustomDataSourceConfig qui spécifie le schéma de vos item espaces de noms et éventuellement sample .
Le schéma de réponse définit la forme des données qui seront :
- Utilisé pour définir vos critères de test et
- Quelles données sont requises lors de la création d’une exécution
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| schema | object | Schéma json pour les éléments de source de données d’exécution. Découvrez comment créer des schémas JSON ici. |
Yes | |
| type | enum | Type de source de données. Toujours custom.Valeurs possibles : custom |
Yes |
OpenAI.EvalDataSourceConfigParams
Discriminateur pour OpenAI.EvalDataSourceConfigParams
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigParams |
logs |
OpenAI.EvalLogsDataSourceConfigParams |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigResource
Discriminateur pour OpenAI.EvalDataSourceConfigResource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
custom |
OpenAI.EvalCustomDataSourceConfigResource |
stored_completions |
OpenAI.EvalStoredCompletionsDataSourceConfigResource |
logs |
OpenAI.EvalLogsDataSourceConfigResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalDataSourceConfigType | Yes |
OpenAI.EvalDataSourceConfigType
| Property | Value |
|---|---|
| Type | string |
| Values | customlogsstored_completions |
OpenAI.EvalGraderLabelModelParams
Objet LabelModelGrader qui utilise un modèle pour affecter des étiquettes à chaque élément de l’évaluation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}. |
Yes | |
| labels | array | Étiquettes à classer sur chaque élément de l’évaluation. | Yes | |
| model | string | Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. | Yes | |
| name | string | Nom du classateur. | Yes | |
| passing_labels | array | Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. | Yes | |
| type | enum | Type d’objet, qui est toujours label_model.Valeurs possibles : label_model |
Yes |
OpenAI.EvalGraderLabelModelResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Yes | ||
| labels | array | Étiquettes à affecter à chaque élément de l’évaluation. | Yes | |
| model | string | Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. | Yes | |
| name | string | Nom du classateur. | Yes | |
| passing_labels | array | Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. | Yes | |
| type | enum | Type d’objet, qui est toujours label_model.Valeurs possibles : label_model |
Yes |
OpenAI.EvalGraderParams
Discriminateur pour OpenAI.EvalGraderParams
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelParams |
string_check |
OpenAI.EvalGraderStringCheckParams |
text_similarity |
OpenAI.EvalGraderTextSimilarityParams |
python |
OpenAI.EvalGraderPythonParams |
score_model |
OpenAI.EvalGraderScoreModelParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.EvalGraderPythonParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| name | string | Nom du classateur. | Yes | |
| pass_threshold | number | Seuil du score. | No | |
| source | string | Code source du script Python. | Yes | |
| type | enum | Type d’objet, qui est toujours python.Valeurs possibles : python |
Yes |
OpenAI.EvalGraderPythonResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| name | string | Nom du classateur. | Yes | |
| pass_threshold | number | Seuil du score. | No | |
| source | string | Code source du script Python. | Yes | |
| type | enum | Type d’objet, qui est toujours python.Valeurs possibles : python |
Yes |
OpenAI.EvalGraderResource
Discriminateur pour OpenAI.EvalGraderResource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
label_model |
OpenAI.EvalGraderLabelModelResource |
text_similarity |
OpenAI.EvalGraderTextSimilarityResource |
python |
OpenAI.EvalGraderPythonResource |
score_model |
OpenAI.EvalGraderScoreModelResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.EvalGraderScoreModelParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | Yes | |
| model | string | Modèle à utiliser pour l’évaluation. | Yes | |
| name | string | Nom du classateur. | Yes | |
| pass_threshold | number | Seuil du score. | No | |
| range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| type | enum | Type d’objet, qui est toujours score_model.Valeurs possibles : score_model |
Yes |
OpenAI.EvalGraderScoreModelResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | Yes | |
| model | string | Modèle à utiliser pour l’évaluation. | Yes | |
| name | string | Nom du classateur. | Yes | |
| pass_threshold | number | Seuil du score. | No | |
| range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| type | enum | Type d’objet, qui est toujours score_model.Valeurs possibles : score_model |
Yes |
OpenAI.EvalGraderStringCheckParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texte d’entrée. Cela peut inclure des chaînes de modèle. | Yes | |
| name | string | Nom du classateur. | Yes | |
| operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
Yes | |
| reference | string | Texte de référence. Cela peut inclure des chaînes de modèle. | Yes | |
| type | enum | Type d’objet, qui est toujours string_check.Valeurs possibles : string_check |
Yes |
OpenAI.EvalGraderTextSimilarityParams
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Yes | |
| input | string | Texte classé. | Yes | |
| name | string | Nom du classateur. | Yes | |
| pass_threshold | number | Seuil du score. | Yes | |
| reference | string | Texte en cours de classement. | Yes | |
| type | enum | Type de nuanceur. Valeurs possibles : text_similarity |
Yes |
OpenAI.EvalGraderTextSimilarityResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Yes | |
| input | string | Texte classé. | Yes | |
| name | string | Nom du classateur. | Yes | |
| pass_threshold | number | Seuil du score. | Yes | |
| reference | string | Texte en cours de classement. | Yes | |
| type | enum | Type de nuanceur. Valeurs possibles : text_similarity |
Yes |
OpenAI.EvalItem
Entrée de message au modèle avec un rôle indiquant l’instruction suivante. Les instructions fournies avec le rôle ou developer le system rôle sont prioritaires sur les instructions fournies avec le user rôle. Les messages avec le assistant rôle sont présumés avoir été générés par le modèle dans les interactions précédentes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | object | Yes | ||
| └─ type | OpenAI.EvalItemContentType | No | ||
| role | enum | Rôle de l’entrée de message. Un des user, , assistant, systemou developer.Valeurs possibles : user, , assistantsystem,developer |
Yes | |
| type | enum | Type de l’entrée de message. Toujours message.Valeurs possibles : message |
No |
OpenAI.EvalItemContent
Discriminateur pour OpenAI.EvalItemContent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
input_text |
OpenAI.EvalItemContentInputText |
output_text |
OpenAI.EvalItemContentOutputText |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalItemContentType | Yes |
OpenAI.EvalItemContentInputText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Valeurs possibles : input_text |
Yes |
OpenAI.EvalItemContentOutputText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Valeurs possibles : output_text |
Yes |
OpenAI.EvalItemContentType
| Property | Value |
|---|---|
| Type | string |
| Values | input_textoutput_text |
OpenAI.EvalJsonlRunDataSourceParams
Objet JsonlRunDataSource avec lequel spécifie un fichier JSONL qui correspond à l’eval
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| source | object | Yes | ||
| └─ content | array | Contenu du fichier jsonl. | No | |
| └─ id | string | Identificateur du fichier. | No | |
| └─ type | enum | Type de source jsonl. Toujours file_id.Valeurs possibles : file_id |
No | |
| type | enum | Type de source de données. Toujours jsonl.Valeurs possibles : jsonl |
Yes |
OpenAI.EvalList
Objet représentant une liste d’evals.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Tableau d’objets d’évaluation. | Yes | |
| first_id | string | Identificateur du premier eval dans le tableau de données. | Yes | |
| has_more | boolean | Indique si d’autres évaluations sont disponibles. | Yes | |
| last_id | string | Identificateur du dernier eval dans le tableau de données. | Yes | |
| object | enum | Type de cet objet. Elle est toujours définie sur « list ». Valeurs possibles : list |
Yes |
OpenAI.EvalLogsDataSourceConfigParams
Configuration de source de données qui spécifie la propriété de métadonnées de votre requête de journaux d’activité.
Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| type | enum | Type de source de données. Toujours logs.Valeurs possibles : logs |
Yes |
OpenAI.EvalLogsDataSourceConfigResource
LogsDataSourceConfig qui spécifie la propriété de métadonnées de votre requête de journaux d’activité.
Il s’agit généralement de métadonnées telles que usecase=chatbot ou prompt-version=v2, etc. Le schéma retourné par cette configuration de source de données est utilisé pour définir les variables disponibles dans vos évaluations.
item et sample sont tous les deux définis lors de l’utilisation de cette configuration de source de données.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| schema | object | Schéma json pour les éléments de source de données d’exécution. Découvrez comment créer des schémas JSON ici. |
Yes | |
| type | enum | Type de source de données. Toujours logs.Valeurs possibles : logs |
Yes |
OpenAI.EvalResponsesRunDataSourceParams
Objet ResponsesRunDataSource décrivant une configuration d’échantillonnage de modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_messages | object | No | ||
| └─ item_reference | string | Référence à une variable dans l’espace item de noms. Ie, "item.name" |
No | |
| └─ template | array | Liste des messages de conversation formant l’invite ou le contexte. Peut inclure des références de variables à l’espace item de noms, par exemple {{item.name}}. |
No | |
| └─ type | enum | Type de messages d’entrée. Toujours item_reference.Valeurs possibles : item_reference |
No | |
| model | string | Nom du modèle à utiliser pour générer des achèvements (par exemple, « o3-mini »). | No | |
| sampling_params | AzureEvalAPIResponseSamplingParams | No | ||
| source | object | Yes | ||
| └─ content | array | Contenu du fichier jsonl. | No | |
| └─ created_after | integer | Incluez uniquement les éléments créés après cet horodatage (inclusif). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ created_before | integer | Incluez uniquement les éléments créés avant cet horodatage (inclus). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ id | string | Identificateur du fichier. | No | |
| └─ instructions_search | string | Chaîne facultative pour rechercher le champ « instructions ». Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ model | string | Nom du modèle pour lequel rechercher des réponses. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ reasoning_effort | OpenAI.ReasoningEffort | Paramètre d’effort de raisonnement facultatif. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ temperature | number | Sampling temperature. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ tools | array | Liste des noms d’outils. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ top_p | number | Paramètre d’échantillonnage du noyau. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| └─ type | enum | Type de source de données d’exécution. Toujours responses.Valeurs possibles : responses |
No | |
| └─ users | array | Liste des identificateurs d’utilisateur. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| type | enum | Type de source de données d’exécution. Toujours responses.Valeurs possibles : responses |
Yes |
OpenAI.EvalRun
Schéma représentant une exécution d’évaluation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) lors de la création de l’exécution de l’évaluation. | Yes | |
| data_source | object | Yes | ||
| └─ type | OpenAI.EvalRunDataSourceType | No | ||
| error | OpenAI.EvalApiError | Objet représentant une réponse d’erreur de l’API Eval. | Yes | |
| eval_id | string | Identificateur de l’évaluation associée. | Yes | |
| id | string | Identificateur unique pour l’exécution de l’évaluation. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| model | string | Modèle évalué, le cas échéant. | Yes | |
| name | string | Nom de l’exécution de l’évaluation. | Yes | |
| object | enum | Type de l’objet. Always "eval.run". Valeurs possibles : eval.run |
Yes | |
| per_model_usage | array | Statistiques d’utilisation pour chaque modèle pendant l’exécution de l’évaluation. | Yes | |
| per_testing_criteria_results | array | Résultats par critères de test appliqués pendant l’exécution de l’évaluation. | Yes | |
| report_url | string | URL du rapport d’exécution d’évaluation rendu sur le tableau de bord de l’interface utilisateur. | Yes | |
| result_counts | object | Compteurs récapitunant les résultats de l’exécution de l’évaluation. | Yes | |
| └─ errored | integer | Nombre d’éléments de sortie qui ont entraîné une erreur. | No | |
| └─ failed | integer | Nombre d’éléments de sortie qui n’ont pas réussi à passer l’évaluation. | No | |
| └─ passed | integer | Nombre d’éléments de sortie qui ont passé l’évaluation. | No | |
| └─ total | integer | Nombre total d’éléments de sortie exécutés. | No | |
| status | string | État de l’exécution de l’évaluation. | Yes |
OpenAI.EvalRunDataContentSource
Discriminateur pour OpenAI.EvalRunDataContentSource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
file_id |
OpenAI.EvalRunFileIdDataContentSource |
stored_completions |
OpenAI.EvalRunStoredCompletionsDataContentSource |
responses |
OpenAI.EvalRunResponsesDataContentSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataContentSourceType | Yes |
OpenAI.EvalRunDataContentSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | file_idfile_contentstored_completionsresponses |
OpenAI.EvalRunDataSourceCompletionsResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : completions |
Yes |
OpenAI.EvalRunDataSourceJsonlResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : jsonl |
Yes |
OpenAI.EvalRunDataSourceParams
Discriminateur pour OpenAI.EvalRunDataSourceParams
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
jsonl |
OpenAI.EvalJsonlRunDataSourceParams |
completions |
OpenAI.EvalCompletionsRunDataSourceParams |
responses |
OpenAI.EvalResponsesRunDataSourceParams |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.EvalRunDataSourceType | Yes |
OpenAI.EvalRunDataSourceResponsesResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : responses |
Yes |
OpenAI.EvalRunDataSourceType
| Property | Value |
|---|---|
| Type | string |
| Values | jsonlcompletionsresponses |
OpenAI.EvalRunFileContentDataContentSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu du fichier jsonl. | Yes | |
| type | enum | Type de source jsonl. Toujours file_content.Valeurs possibles : file_content |
Yes |
OpenAI.EvalRunFileIdDataContentSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificateur du fichier. | Yes | |
| type | enum | Type de source jsonl. Toujours file_id.Valeurs possibles : file_id |
Yes |
OpenAI.EvalRunList
Objet représentant une liste d’exécutions pour une évaluation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Tableau d’objets d’exécution d’évaluation. | Yes | |
| first_id | string | Identificateur de la première exécution d’évaluation dans le tableau de données. | Yes | |
| has_more | boolean | Indique si d’autres évaluations sont disponibles. | Yes | |
| last_id | string | Identificateur de la dernière exécution eval dans le tableau de données. | Yes | |
| object | enum | Type de cet objet. Elle est toujours définie sur « list ». Valeurs possibles : list |
Yes |
OpenAI.EvalRunOutputItem
Schéma représentant un élément de sortie d’exécution d’évaluation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) lors de la création de l’exécution de l’évaluation. | Yes | |
| datasource_item | object | Détails de l’élément de source de données d’entrée. | Yes | |
| datasource_item_id | integer | Identificateur de l’élément de source de données. | Yes | |
| eval_id | string | Identificateur du groupe d’évaluation. | Yes | |
| id | string | Identificateur unique de l’élément de sortie d’exécution d’évaluation. | Yes | |
| object | enum | Type de l’objet. Always "eval.run.output_item". Valeurs possibles : eval.run.output_item |
Yes | |
| results | array | Liste des résultats de l’exécution d’évaluation. | Yes | |
| run_id | string | Identificateur de l’exécution d’évaluation associée à cet élément de sortie. | Yes | |
| sample | object | Exemple contenant l’entrée et la sortie de l’exécution de l’évaluation. | Yes | |
| └─ error | OpenAI.EvalApiError | Objet représentant une réponse d’erreur de l’API Eval. | No | |
| └─ finish_reason | string | Raison pour laquelle l’exemple de génération a été terminé. | No | |
| └─ input | array | Tableau de messages d’entrée. | No | |
| └─ max_completion_tokens | integer | Nombre maximal de jetons autorisés pour l’achèvement. | No | |
| └─ model | string | Modèle utilisé pour générer l’exemple. | No | |
| └─ output | array | Tableau de messages de sortie. | No | |
| └─ seed | integer | Valeur initiale utilisée pour générer l’exemple. | No | |
| └─ temperature | number | Température d’échantillonnage utilisée. | No | |
| └─ top_p | number | Valeur top_p utilisée pour l’échantillonnage. | No | |
| └─ usage | object | Détails de l’utilisation du jeton pour l’exemple. | No | |
| └─ cached_tokens | integer | Nombre de jetons récupérés à partir du cache. | No | |
| └─ completion_tokens | integer | Nombre de jetons d’achèvement générés. | No | |
| └─ prompt_tokens | integer | Nombre de jetons d’invite utilisés. | No | |
| └─ total_tokens | integer | Nombre total de jetons utilisés. | No | |
| status | string | État de l’exécution de l’évaluation. | Yes |
OpenAI.EvalRunOutputItemList
Objet représentant une liste d’éléments de sortie pour une exécution d’évaluation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Tableau d’objets d’élément de sortie d’exécution eval. | Yes | |
| first_id | string | Identificateur du premier élément de sortie d’exécution eval dans le tableau de données. | Yes | |
| has_more | boolean | Indique s’il existe plus d’éléments de sortie d’exécution eval disponibles. | Yes | |
| last_id | string | Identificateur du dernier élément de sortie d’exécution eval dans le tableau de données. | Yes | |
| object | enum | Type de cet objet. Elle est toujours définie sur « list ». Valeurs possibles : list |
Yes |
OpenAI.EvalRunResponsesDataContentSource
Objet EvalResponsesSource décrivant une configuration de source de données d’exécution.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_after | integer | Incluez uniquement les éléments créés après cet horodatage (inclusif). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| created_before | integer | Incluez uniquement les éléments créés avant cet horodatage (inclus). Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| instructions_search | string | Chaîne facultative pour rechercher le champ « instructions ». Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| model | string | Nom du modèle pour lequel rechercher des réponses. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| reasoning_effort | object |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| temperature | number | Sampling temperature. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| tools | array | Liste des noms d’outils. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| top_p | number | Paramètre d’échantillonnage du noyau. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No | |
| type | enum | Type de source de données d’exécution. Toujours responses.Valeurs possibles : responses |
Yes | |
| users | array | Liste des identificateurs d’utilisateur. Il s’agit d’un paramètre de requête utilisé pour sélectionner des réponses. | No |
OpenAI.EvalRunStoredCompletionsDataContentSource
Configuration StoredCompletionsRunDataSource décrivant un ensemble de filtres
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_after | integer | Horodatage Unix facultatif pour filtrer les éléments créés après cette période. | No | |
| created_before | integer | Horodatage Unix facultatif pour filtrer les éléments créés avant cette heure. | No | |
| limit | integer | Nombre maximal facultatif d’éléments à retourner. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| model | string | Modèle facultatif à filtrer par (par exemple, « gpt-4o »). | No | |
| type | enum | Type de source. Toujours stored_completions.Valeurs possibles : stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigParams
Déconseillé en faveur de LogsDataSourceConfig.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Filtres de métadonnées pour la source de données de saisie semi-automatique stockée. | No | |
| type | enum | Type de source de données. Toujours stored_completions.Valeurs possibles : stored_completions |
Yes |
OpenAI.EvalStoredCompletionsDataSourceConfigResource
Déconseillé en faveur de LogsDataSourceConfig.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| schema | object | Schéma json pour les éléments de source de données d’exécution. Découvrez comment créer des schémas JSON ici. |
Yes | |
| type | enum | Type de source de données. Toujours stored_completions.Valeurs possibles : stored_completions |
Yes |
OpenAI.FileSearchTool
Outil qui recherche le contenu pertinent à partir de fichiers chargés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | object | No | ||
| max_num_results | integer | Nombre maximal de résultats à retourner. Ce nombre doit être compris entre 1 et 50 inclus. | No | |
| ranking_options | object | No | ||
| └─ ranker | enum | Ranker à utiliser pour la recherche de fichiers. Valeurs possibles : auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. | No | |
| type | enum | Type de l’outil de recherche de fichiers. Toujours file_search.Valeurs possibles : file_search |
Yes | |
| vector_store_ids | array | ID des magasins vectoriels à rechercher. | Yes |
OpenAI.FileSearchToolCallItemParam
Résultats d’un appel d’outil de recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| queries | array | Requêtes utilisées pour rechercher des fichiers. | Yes | |
| results | array | Résultats de l’appel de l’outil de recherche de fichiers. | No | |
| type | enum | Valeurs possibles : file_search_call |
Yes |
OpenAI.FileSearchToolCallItemResource
Résultats d’un appel d’outil de recherche de fichiers.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| queries | array | Requêtes utilisées pour rechercher des fichiers. | Yes | |
| results | array | Résultats de l’appel de l’outil de recherche de fichiers. | No | |
| status | enum | État de l’appel de l’outil de recherche de fichiers. Un des in_progress, searchingou incompletefailed.Valeurs possibles : in_progress, , searchingcompleted, incomplete,failed |
Yes | |
| type | enum | Valeurs possibles : file_search_call |
Yes |
OpenAI.Filters
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Tableau de filtres à combiner. Les éléments peuvent être ComparisonFilter ou CompoundFilter. |
Yes | |
| key | string | Clé à comparer à la valeur. | Yes | |
| type | enum | Type d’opération : and ou or.Valeurs possibles : and, or |
Yes | |
| value | chaîne ou nombre ou booléen | Valeur à comparer à la clé d’attribut ; prend en charge les types chaîne, nombre ou booléen. | Yes |
OpenAI.FineTuneDPOHyperparameters
Hyperparamètres utilisés pour le travail d’optimisation de l’objet de stratégie de domaine.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Valeurs possibles : auto |
No | |
| beta | enum | Valeurs possibles : auto |
No | |
| learning_rate_multiplier | enum | Valeurs possibles : auto |
No | |
| n_epochs | enum | Valeurs possibles : auto |
No |
OpenAI.FineTuneDPOMethod
Configuration de la méthode d’optimisation de l’objet de stratégie de domaine.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneDPOHyperparameters | Hyperparamètres utilisés pour le travail d’optimisation de l’objet de stratégie de domaine. | No |
OpenAI.FineTuneMethod
Méthode utilisée pour le réglage précis.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dpo | OpenAI.FineTuneDPOMethod | Configuration de la méthode d’optimisation de l’objet de stratégie de domaine. | No | |
| reinforcement | AzureFineTuneReinforcementMethod | No | ||
| supervised | OpenAI.FineTuneSupervisedMethod | Configuration de la méthode de réglage affiné supervisée. | No | |
| type | enum | Type de méthode. Est soit supervised, dpoou reinforcement.Valeurs possibles : supervised, , dporeinforcement |
Yes |
OpenAI.FineTuneReinforcementHyperparameters
Les hyperparamètres utilisés pour le travail de réglage précis du renforcement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Valeurs possibles : auto |
No | |
| compute_multiplier | enum | Valeurs possibles : auto |
No | |
| eval_interval | enum | Valeurs possibles : auto |
No | |
| eval_samples | enum | Valeurs possibles : auto |
No | |
| learning_rate_multiplier | enum | Valeurs possibles : auto |
No | |
| n_epochs | enum | Valeurs possibles : auto |
No | |
| reasoning_effort | enum | Niveau d’effort de raisonnement. Valeurs possibles : default, , lowmedium,high |
No |
OpenAI.FineTuneSupervisedHyperparameters
Hyperparamètres utilisés pour le travail de réglage précis.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| batch_size | enum | Valeurs possibles : auto |
No | |
| learning_rate_multiplier | enum | Valeurs possibles : auto |
No | |
| n_epochs | enum | Valeurs possibles : auto |
No |
OpenAI.FineTuneSupervisedMethod
Configuration de la méthode de réglage affiné supervisée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hyperparameters | OpenAI.FineTuneSupervisedHyperparameters | Hyperparamètres utilisés pour le travail de réglage précis. | No |
OpenAI.FineTuningIntegration
Discriminateur pour OpenAI.FineTuningIntegration
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
wandb |
OpenAI.FineTuningIntegrationWandb |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | chaîne (voir les modèles valides ci-dessous) | Yes |
OpenAI.FineTuningIntegrationWandb
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’intégration activée pour le travail de réglage précis. Valeurs possibles : wandb |
Yes | |
| wandb | object | Paramètres de votre intégration à Weights and Biases. Cette charge utile spécifie le projet auquel les métriques seront envoyées. Si vous le souhaitez, vous pouvez définir un nom complet explicite pour votre exécution, ajouter des balises à votre exécution et définir une entité par défaut (équipe, nom d’utilisateur, etc.) à associer à votre exécution. | Yes | |
| └─ entity | string | Entité à utiliser pour l’exécution. Cela vous permet de définir l’équipe ou le nom d’utilisateur de l’utilisateur WandB que vous souhaitez associer à l’exécution. Si elle n’est pas définie, l’entité par défaut de la clé API WandB inscrite est utilisée. | No | |
| └─ name | string | Nom complet à définir pour l’exécution. Si ce n’est pas le cas, nous allons utiliser l’ID de travail comme nom. | No | |
| └─ project | string | Nom du projet sous lequel la nouvelle exécution sera créée. | No | |
| └─ tags | array | Liste des balises à joindre à l’exécution nouvellement créée. Ces balises sont transmises directement à WandB. Certaines balises par défaut sont générées par OpenAI : « openai/finetune », « openai/{base-model} », « openai/{ftjob-abcdef} ». | No |
OpenAI.FineTuningJob
L’objet fine_tuning.job représente un travail de réglage précis qui a été créé via l’API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. | Yes | |
| error | object | Pour les travaux de réglage précis qui ont failed, cela contiendra plus d’informations sur la cause de l’échec. |
Yes | |
| └─ code | string | Code d’erreur lisible par l’ordinateur. | No | |
| └─ message | string | Message d’erreur lisible par l’homme. | No | |
| └─ param | string | Paramètre non valide, généralement training_file ou validation_file. Ce champ est null si l’échec n’était pas spécifique au paramètre. |
No | |
| estimated_finish | integer | Horodatage Unix (en secondes) lorsque le travail de réglage précis est estimé à se terminer. La valeur est null si le travail de réglage précis n’est pas en cours d’exécution. | No | |
| fine_tuned_model | string | Nom du modèle affiné en cours de création. La valeur est null si le travail de réglage précis est toujours en cours d’exécution. | Yes | |
| finished_at | integer | Horodatage Unix (en secondes) pour le moment où le travail de réglage a été terminé. La valeur est null si le travail de réglage précis est toujours en cours d’exécution. | Yes | |
| hyperparameters | object | Hyperparamètres utilisés pour le travail de réglage précis. Cette valeur est retournée uniquement lors de l’exécution supervised de travaux. |
Yes | |
| └─ batch_size | enum | Valeurs possibles : auto |
No | |
| └─ learning_rate_multiplier | enum | Valeurs possibles : auto |
No | |
| └─ n_epochs | enum | Valeurs possibles : auto |
No | |
| id | string | Identificateur d’objet, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| integrations | array | Liste des intégrations à activer pour ce travail d’optimisation. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| method | OpenAI.FineTuneMethod | Méthode utilisée pour le réglage précis. | No | |
| model | string | Modèle de base en cours d’optimisation. | Yes | |
| object | enum | Type d’objet, qui est toujours « fine_tuning.job ». Valeurs possibles : fine_tuning.job |
Yes | |
| organization_id | string | Organisation propriétaire du travail d’optimisation. | Yes | |
| result_files | array | ID(s) du ou des fichiers de résultats compilés pour le travail de réglage précis. Vous pouvez récupérer les résultats avec l’API Files. | Yes | |
| seed | integer | Valeur initiale utilisée pour le travail de réglage précis. | Yes | |
| status | enum | État actuel du travail de réglage précis, qui peut être validating_filessoit , queued, running, , succeeded, , failedou cancelled.Valeurs possibles : validating_files, , queuedrunning, succeeded, failedcancelled |
Yes | |
| trained_tokens | integer | Nombre total de jetons facturables traités par ce travail de réglage précis. La valeur est null si le travail de réglage précis est toujours en cours d’exécution. | Yes | |
| training_file | string | ID de fichier utilisé pour l’entraînement. Vous pouvez récupérer les données d’apprentissage avec l’API Files. | Yes | |
| user_provided_suffix | string | Suffixe descriptif appliqué au travail, tel que spécifié dans la demande de création de travaux. | No | |
| validation_file | string | ID de fichier utilisé pour la validation. Vous pouvez récupérer les résultats de validation avec l’API Files. | Yes |
OpenAI.FineTuningJobCheckpoint
L’objet fine_tuning.job.checkpoint représente un point de contrôle de modèle pour un travail de réglage précis prêt à être utilisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le point de contrôle a été créé. | Yes | |
| fine_tuned_model_checkpoint | string | Nom du modèle de point de contrôle affiné créé. | Yes | |
| fine_tuning_job_id | string | Nom du travail de réglage précis à partir duquel ce point de contrôle a été créé. | Yes | |
| id | string | Identificateur de point de contrôle, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| metrics | object | Métriques au numéro d’étape pendant le travail de réglage précis. | Yes | |
| └─ full_valid_loss | number | No | ||
| └─ full_valid_mean_token_accuracy | number | No | ||
| └─ step | number | No | ||
| └─ train_loss | number | No | ||
| └─ train_mean_token_accuracy | number | No | ||
| └─ valid_loss | number | No | ||
| └─ valid_mean_token_accuracy | number | No | ||
| object | enum | Type d’objet, qui est toujours « fine_tuning.job.checkpoint ». Valeurs possibles : fine_tuning.job.checkpoint |
Yes | |
| step_number | integer | Numéro d’étape auquel le point de contrôle a été créé. | Yes |
OpenAI.FineTuningJobEvent
Objet d’événement de travail de réglage précis
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le travail de réglage a été créé. | Yes | |
| data | Données associées à l’événement. | No | ||
| id | string | Identificateur d’objet. | Yes | |
| level | enum | Niveau de journal de l’événement. Valeurs possibles : info, , warnerror |
Yes | |
| message | string | Message de l’événement. | Yes | |
| object | enum | Type d’objet, qui est toujours « fine_tuning.job.event ». Valeurs possibles : fine_tuning.job.event |
Yes | |
| type | enum | Type d’événement. Valeurs possibles : message, metrics |
No |
OpenAI.FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de ce que fait la fonction, utilisée par le modèle pour choisir quand et comment appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| parameters | Les paramètres que les fonctions acceptent, décrits comme un objet de schéma JSON. | No | ||
| strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de l’appel de fonction. Si la valeur est true, le modèle suit le schéma exact défini dans le parameters champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. |
No | False |
OpenAI.FunctionTool
Définit une fonction dans votre propre code que le modèle peut choisir d’appeler.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description de la fonction. Utilisé par le modèle pour déterminer s’il faut ou non appeler la fonction. | No | |
| name | string | Nom de la fonction à appeler. | Yes | |
| parameters | Objet de schéma JSON décrivant les paramètres de la fonction. | Yes | ||
| strict | boolean | Indique s’il faut appliquer une validation stricte des paramètres. Valeur par défaut true. |
Yes | |
| type | enum | Type de l’outil de fonction. Toujours function.Valeurs possibles : function |
Yes |
OpenAI.FunctionToolCallItemParam
Un appel d’outil pour exécuter une fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON des arguments à passer à la fonction. | Yes | |
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. | Yes | |
| name | string | Nom de la fonction à exécuter. | Yes | |
| type | enum | Valeurs possibles : function_call |
Yes |
OpenAI.FunctionToolCallItemResource
Un appel d’outil pour exécuter une fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON des arguments à passer à la fonction. | Yes | |
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. | Yes | |
| name | string | Nom de la fonction à exécuter. | Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Valeurs possibles : function_call |
Yes |
OpenAI.FunctionToolCallOutputItemParam
Sortie d’un appel d’outil de fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. | Yes | |
| output | string | Chaîne JSON de la sortie de l’appel de l’outil de fonction. | Yes | |
| type | enum | Valeurs possibles : function_call_output |
Yes |
OpenAI.FunctionToolCallOutputItemResource
Sortie d’un appel d’outil de fonction.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | ID unique de l’appel de l’outil de fonction généré par le modèle. | Yes | |
| output | string | Chaîne JSON de la sortie de l’appel de l’outil de fonction. | Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Valeurs possibles : function_call_output |
Yes |
OpenAI.Grader
Discriminateur pour OpenAI.Grader
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
label_model |
OpenAI.GraderLabelModel |
text_similarity |
OpenAI.GraderTextSimilarity |
python |
OpenAI.GraderPython |
score_model |
OpenAI.GraderScoreModel |
multi |
OpenAI.GraderMulti |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.GraderType | Yes |
OpenAI.GraderLabelModel
Objet LabelModelGrader qui utilise un modèle pour affecter des étiquettes à chaque élément de l’évaluation.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Yes | ||
| labels | array | Étiquettes à affecter à chaque élément de l’évaluation. | Yes | |
| model | string | Modèle à utiliser pour l’évaluation. Doit prendre en charge les sorties structurées. | Yes | |
| name | string | Nom du classateur. | Yes | |
| passing_labels | array | Étiquettes qui indiquent un résultat de passage. Doit être un sous-ensemble d’étiquettes. | Yes | |
| type | enum | Type d’objet, qui est toujours label_model.Valeurs possibles : label_model |
Yes |
OpenAI.GraderMulti
Un objet MultiGrader combine la sortie de plusieurs classateurs pour produire un score unique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | Yes | |
| graders | object | Yes | ||
| name | string | Nom du classateur. | Yes | |
| type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
Yes |
OpenAI.GraderPython
Objet PythonGrader qui exécute un script Python sur l’entrée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| name | string | Nom du classateur. | Yes | |
| source | string | Code source du script Python. | Yes | |
| type | enum | Type d’objet, qui est toujours python.Valeurs possibles : python |
Yes |
OpenAI.GraderScoreModel
Objet ScoreModelGrader qui utilise un modèle pour affecter un score à l’entrée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | Yes | |
| model | string | Modèle à utiliser pour l’évaluation. | Yes | |
| name | string | Nom du classateur. | Yes | |
| range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| type | enum | Type d’objet, qui est toujours score_model.Valeurs possibles : score_model |
Yes |
OpenAI.GraderStringCheck
Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | Texte d’entrée. Cela peut inclure des chaînes de modèle. | Yes | |
| name | string | Nom du classateur. | Yes | |
| operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
Yes | |
| reference | string | Texte de référence. Cela peut inclure des chaînes de modèle. | Yes | |
| type | enum | Type d’objet, qui est toujours string_check.Valeurs possibles : string_check |
Yes |
OpenAI.GraderTextSimilarity
Objet TextSimilarityGrader qui classe le texte en fonction des métriques de similarité.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
Yes | |
| input | string | Texte classé. | Yes | |
| name | string | Nom du classateur. | Yes | |
| reference | string | Texte en cours de classement. | Yes | |
| type | enum | Type de nuanceur. Valeurs possibles : text_similarity |
Yes |
OpenAI.GraderType
| Property | Value |
|---|---|
| Type | string |
| Values | string_checktext_similarityscore_modellabel_modelpythonmulti |
OpenAI.ImageGenTool
Outil qui génère des images à l’aide d’un modèle comme gpt-image-1.5.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | enum | GPT-image-1 uniquement : type d’arrière-plan pour l’image générée. Un des transparent, opaqueou auto. Valeur par défaut : auto.Valeurs possibles : transparent, , opaqueauto |
No | |
| input_image_mask | object | Masque facultatif pour l’inpainting. Contient image_url (chaîne, facultatif) et file_id (chaîne, facultatif). |
No | |
| └─ file_id | string | ID de fichier de l’image de masque. | No | |
| └─ image_url | string | Image de masque encodée en base64. | No | |
| model | enum | Modèle de génération d’image à utiliser. Valeur par défaut : gpt-image-1.Valeurs possibles : gpt-image-1, , gpt-image-1.5gpt-image-2 |
No | |
| moderation | enum | Niveau de modération de l’image générée. Valeur par défaut : auto.Valeurs possibles : auto, low |
No | |
| output_compression | integer | Niveau de compression de l’image de sortie. Default: 100. | No | 100 |
| output_format | enum | Format de sortie de l’image générée. Un des png, webpou jpeg. Valeur par défaut : png.Valeurs possibles : png, , webpjpeg |
No | |
| partial_images | integer | Nombre d’images partielles à générer en mode streaming, de 0 (valeur par défaut) à 3. | No | 0 |
| quality | enum | Qualité de l’image générée. Un des low, , medium, highou auto. Valeur par défaut : auto.Valeurs possibles : low, , mediumhigh,auto |
No | |
| size | enum | Taille de l’image générée. Un des 1024x1024, , 1024x1536, 1536x1024ou auto. Valeur par défaut : auto.Valeurs possibles : 1024x1024, , 1024x15361536x1024,auto |
No | |
| type | enum | Type de l’outil de génération d’images. Toujours image_generation.Valeurs possibles : image_generation |
Yes |
OpenAI.ImageGenToolCallItemParam
Demande de génération d’image effectuée par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| result | string | Image générée encodée en base64. | Yes | |
| type | enum | Valeurs possibles : image_generation_call |
Yes |
OpenAI.ImageGenToolCallItemResource
Demande de génération d’image effectuée par le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| result | string | Image générée encodée en base64. | Yes | |
| status | enum | Valeurs possibles : in_progress, , completedgenerating,failed |
Yes | |
| type | enum | Valeurs possibles : image_generation_call |
Yes |
OpenAI.ImplicitUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | chaîne ou tableau | Yes |
OpenAI.Includable
Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes :
-
code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code. -
computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur. -
file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers. -
message.input_image.image_url: incluez des URL d’image à partir du message d’entrée. -
message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant. -
reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque lestoreparamètre est définifalsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro).
| Property | Value |
|---|---|
| Description | Spécifiez des données de sortie supplémentaires à inclure dans la réponse du modèle. Les valeurs actuellement prises en charge sont les suivantes : - code_interpreter_call.outputs: inclut les sorties de l’exécution de code Python dans les éléments d’appel de l’outil d’interpréteur de code.- computer_call_output.output.image_url: incluez des URL d’image à partir de la sortie de l’appel d’ordinateur.- file_search_call.results: incluez les résultats de recherche de l’appel de l’outil de recherche de fichiers.- message.input_image.image_url: incluez des URL d’image à partir du message d’entrée.- message.output_text.logprobs: incluez des journaux d’activité avec des messages d’assistant.- reasoning.encrypted_content: inclut une version chiffrée des jetons de raisonnement dans les sorties d’éléments de raisonnement. Cela permet d’utiliser des éléments de raisonnement dans des conversations à plusieurs tours lors de l’utilisation de l’API Réponses sans état (comme lorsque le store paramètre est défini falsesur , ou lorsqu’une organisation est inscrite dans le programme de rétention de données zéro). |
| Type | string |
| Values | code_interpreter_call.outputscomputer_call_output.output.image_urlfile_search_call.resultsmessage.input_image.image_urlmessage.output_text.logprobsreasoning.encrypted_content |
OpenAI.ItemContent
Discriminateur pour OpenAI.ItemContent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
input_audio |
OpenAI.ItemContentInputAudio |
output_audio |
OpenAI.ItemContentOutputAudio |
refusal |
OpenAI.ItemContentRefusal |
input_text |
OpenAI.ItemContentInputText |
input_image |
OpenAI.ItemContentInputImage |
input_file |
OpenAI.ItemContentInputFile |
output_text |
OpenAI.ItemContentOutputText |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ItemContentType | Contenu d’entrée et de sortie multimodaux. | Yes |
OpenAI.ItemContentInputAudio
Entrée audio au modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en base64. | Yes | |
| format | enum | Format des données audio. Actuellement, les formats pris en charge sont mp3 et wav.Valeurs possibles : mp3, wav |
Yes | |
| type | enum | Type de l’élément d’entrée. Toujours input_audio.Valeurs possibles : input_audio |
Yes |
OpenAI.ItemContentInputFile
Entrée de fichier dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | Contenu du fichier à envoyer au modèle. | No | |
| file_id | string | ID du fichier à envoyer au modèle. | No | |
| filename | string | Nom du fichier à envoyer au modèle. | No | |
| type | enum | Type de l’élément d’entrée. Toujours input_file.Valeurs possibles : input_file |
Yes |
OpenAI.ItemContentInputImage
Entrée d’image dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | Niveau de détail de l’image à envoyer au modèle. Un des high, lowou auto. La valeur par défaut est auto.Valeurs possibles : low, , highauto |
No | |
| file_id | string | ID du fichier à envoyer au modèle. | No | |
| image_url | string | URL de l’image à envoyer au modèle. Une URL complète ou une image encodée en base64 dans une URL de données. | No | |
| type | enum | Type de l’élément d’entrée. Toujours input_image.Valeurs possibles : input_image |
Yes |
OpenAI.ItemContentInputText
Entrée de texte dans le modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Entrée de texte dans le modèle. | Yes | |
| type | enum | Type de l’élément d’entrée. Toujours input_text.Valeurs possibles : input_text |
Yes |
OpenAI.ItemContentOutputAudio
Sortie audio du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Données audio encodées en base64 à partir du modèle. | Yes | |
| transcript | string | Transcription des données audio du modèle. | Yes | |
| type | enum | Type de l’audio de sortie. Toujours output_audio.Valeurs possibles : output_audio |
Yes |
OpenAI.ItemContentOutputText
Sortie de texte du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Annotations de la sortie de texte. | Yes | |
| logprobs | array | No | ||
| text | string | Sortie de texte du modèle. | Yes | |
| type | enum | Type du texte de sortie. Toujours output_text.Valeurs possibles : output_text |
Yes |
OpenAI.ItemContentRefusal
Refus du modèle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | Explication du refus du modèle. | Yes | |
| type | enum | Type de refus. Toujours refusal.Valeurs possibles : refusal |
Yes |
OpenAI.ItemContentType
Contenu d’entrée et de sortie multimodaux.
| Property | Value |
|---|---|
| Description | Contenu d’entrée et de sortie multimodaux. |
| Type | string |
| Values | input_textinput_audioinput_imageinput_fileoutput_textoutput_audiorefusal |
OpenAI.ItemParam
Élément de contenu utilisé pour générer une réponse.
Discriminateur pour OpenAI.ItemParam
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemParam |
computer_call |
OpenAI.ComputerToolCallItemParam |
computer_call_output |
OpenAI.ComputerToolCallOutputItemParam |
web_search_call |
OpenAI.WebSearchToolCallItemParam |
function_call |
OpenAI.FunctionToolCallItemParam |
function_call_output |
OpenAI.FunctionToolCallOutputItemParam |
reasoning |
OpenAI.ReasoningItemParam |
item_reference |
OpenAI.ItemReferenceItemParam |
image_generation_call |
OpenAI.ImageGenToolCallItemParam |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemParam |
local_shell_call |
OpenAI.LocalShellToolCallItemParam |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemParam |
mcp_list_tools |
OpenAI.MCPListToolsItemParam |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemParam |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemParam |
mcp_call |
OpenAI.MCPCallItemParam |
message |
OpenAI.ResponsesMessageItemParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ItemType | Yes |
OpenAI.ItemReferenceItemParam
Identificateur interne d’un élément à référencer.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | ID du service de l’élément de réponse généré précédemment référencé. | Yes | |
| type | enum | Valeurs possibles : item_reference |
Yes |
OpenAI.ItemResource
Élément de contenu utilisé pour générer une réponse.
Discriminateur pour OpenAI.ItemResource
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
file_search_call |
OpenAI.FileSearchToolCallItemResource |
computer_call |
OpenAI.ComputerToolCallItemResource |
computer_call_output |
OpenAI.ComputerToolCallOutputItemResource |
web_search_call |
OpenAI.WebSearchToolCallItemResource |
function_call |
OpenAI.FunctionToolCallItemResource |
function_call_output |
OpenAI.FunctionToolCallOutputItemResource |
reasoning |
OpenAI.ReasoningItemResource |
image_generation_call |
OpenAI.ImageGenToolCallItemResource |
code_interpreter_call |
OpenAI.CodeInterpreterToolCallItemResource |
local_shell_call |
OpenAI.LocalShellToolCallItemResource |
local_shell_call_output |
OpenAI.LocalShellToolCallOutputItemResource |
mcp_list_tools |
OpenAI.MCPListToolsItemResource |
mcp_approval_request |
OpenAI.MCPApprovalRequestItemResource |
mcp_approval_response |
OpenAI.MCPApprovalResponseItemResource |
mcp_call |
OpenAI.MCPCallItemResource |
message |
OpenAI.ResponsesMessageItemResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Yes | ||
| type | OpenAI.ItemType | Yes |
OpenAI.ItemType
| Property | Value |
|---|---|
| Type | string |
| Values | messagefile_search_callfunction_callfunction_call_outputcomputer_callcomputer_call_outputweb_search_callreasoningitem_referenceimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ListFineTuningJobCheckpointsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | No | ||
| has_more | boolean | Yes | ||
| last_id | string | No | ||
| object | enum | Valeurs possibles : list |
Yes |
OpenAI.ListFineTuningJobEventsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| has_more | boolean | Yes | ||
| object | enum | Valeurs possibles : list |
Yes |
OpenAI.ListModelsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| object | enum | Valeurs possibles : list |
Yes |
OpenAI.ListPaginatedFineTuningJobsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| has_more | boolean | Yes | ||
| object | enum | Valeurs possibles : list |
Yes |
OpenAI.ListVectorStoreFilesFilter
| Property | Value |
|---|---|
| Type | string |
| Values | in_progresscompletedfailedcancelled |
OpenAI.ListVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Valeurs possibles : list |
Yes |
OpenAI.ListVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | enum | Valeurs possibles : list |
Yes |
OpenAI.LocalShellExecAction
Exécutez une commande shell sur le serveur.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| command | array | Commande à exécuter. | Yes | |
| env | object | Variables d’environnement à définir pour la commande. | Yes | |
| timeout_ms | integer | Délai d’expiration facultatif en millisecondes pour la commande. | No | |
| type | enum | Type de l’action de l’interpréteur de commandes local. Toujours exec.Valeurs possibles : exec |
Yes | |
| user | string | Utilisateur facultatif pour exécuter la commande en tant que. | No | |
| working_directory | string | Répertoire de travail facultatif dans lequel exécuter la commande. | No |
OpenAI.LocalShellTool
Outil qui permet au modèle d’exécuter des commandes shell dans un environnement local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’outil shell local. Toujours local_shell.Valeurs possibles : local_shell |
Yes |
OpenAI.LocalShellToolCallItemParam
Un appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Exécutez une commande shell sur le serveur. | Yes | |
| call_id | string | ID unique de l’appel de l’outil shell local généré par le modèle. | Yes | |
| type | enum | Valeurs possibles : local_shell_call |
Yes |
OpenAI.LocalShellToolCallItemResource
Un appel d’outil pour exécuter une commande sur l’interpréteur de commandes local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | OpenAI.LocalShellExecAction | Exécutez une commande shell sur le serveur. | Yes | |
| call_id | string | ID unique de l’appel de l’outil shell local généré par le modèle. | Yes | |
| status | enum | Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Valeurs possibles : local_shell_call |
Yes |
OpenAI.LocalShellToolCallOutputItemParam
Sortie d’un appel d’outil shell local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| output | string | Chaîne JSON de la sortie de l’appel de l’outil shell local. | Yes | |
| type | enum | Valeurs possibles : local_shell_call_output |
Yes |
OpenAI.LocalShellToolCallOutputItemResource
Sortie d’un appel d’outil shell local.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| output | string | Chaîne JSON de la sortie de l’appel de l’outil shell local. | Yes | |
| status | enum | Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Valeurs possibles : local_shell_call_output |
Yes |
OpenAI.Location
Discriminateur pour OpenAI.Location
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
approximate |
OpenAI.ApproximateLocation |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.LocationType | Yes |
OpenAI.LocationType
| Property | Value |
|---|---|
| Type | string |
| Values | approximate |
OpenAI.LogProb
Probabilité du journal d’un jeton.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Yes | ||
| logprob | number | Yes | ||
| token | string | Yes | ||
| top_logprobs | array | Yes |
OpenAI.MCPApprovalRequestItemParam
Demande d’approbation humaine d’un appel d’outil.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON d’arguments pour l’outil. | Yes | |
| name | string | Nom de l’outil à exécuter. | Yes | |
| server_label | string | Étiquette du serveur MCP effectuant la requête. | Yes | |
| type | enum | Valeurs possibles : mcp_approval_request |
Yes |
OpenAI.MCPApprovalRequestItemResource
Demande d’approbation humaine d’un appel d’outil.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON d’arguments pour l’outil. | Yes | |
| name | string | Nom de l’outil à exécuter. | Yes | |
| server_label | string | Étiquette du serveur MCP effectuant la requête. | Yes | |
| type | enum | Valeurs possibles : mcp_approval_request |
Yes |
OpenAI.MCPApprovalResponseItemParam
Réponse à une demande d’approbation MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | string | ID de la demande d’approbation en cours de réponse. | Yes | |
| approve | boolean | Indique si la demande a été approuvée. | Yes | |
| reason | string | Motif facultatif de la décision. | No | |
| type | enum | Valeurs possibles : mcp_approval_response |
Yes |
OpenAI.MCPApprovalResponseItemResource
Réponse à une demande d’approbation MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| approval_request_id | string | ID de la demande d’approbation en cours de réponse. | Yes | |
| approve | boolean | Indique si la demande a été approuvée. | Yes | |
| reason | string | Motif facultatif de la décision. | No | |
| type | enum | Valeurs possibles : mcp_approval_response |
Yes |
OpenAI.MCPCallItemParam
Appel d’un outil sur un serveur MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON des arguments passés à l’outil. | Yes | |
| error | string | Erreur de l’appel de l’outil, le cas échéant. | No | |
| name | string | Nom de l’outil qui a été exécuté. | Yes | |
| output | string | Sortie de l’appel d’outil. | No | |
| server_label | string | Étiquette du serveur MCP exécutant l’outil. | Yes | |
| type | enum | Valeurs possibles : mcp_call |
Yes |
OpenAI.MCPCallItemResource
Appel d’un outil sur un serveur MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Chaîne JSON des arguments passés à l’outil. | Yes | |
| error | string | Erreur de l’appel de l’outil, le cas échéant. | No | |
| name | string | Nom de l’outil qui a été exécuté. | Yes | |
| output | string | Sortie de l’appel d’outil. | No | |
| server_label | string | Étiquette du serveur MCP exécutant l’outil. | Yes | |
| type | enum | Valeurs possibles : mcp_call |
Yes |
OpenAI.MCPListToolsItemParam
Liste des outils disponibles sur un serveur MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | string | Message d’erreur si le serveur n’a pas pu répertorier les outils. | No | |
| server_label | string | Étiquette du serveur MCP. | Yes | |
| tools | array | Outils disponibles sur le serveur. | Yes | |
| type | enum | Valeurs possibles : mcp_list_tools |
Yes |
OpenAI.MCPListToolsItemResource
Liste des outils disponibles sur un serveur MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | string | Message d’erreur si le serveur n’a pas pu répertorier les outils. | No | |
| server_label | string | Étiquette du serveur MCP. | Yes | |
| tools | array | Outils disponibles sur le serveur. | Yes | |
| type | enum | Valeurs possibles : mcp_list_tools |
Yes |
OpenAI.MCPListToolsTool
Outil disponible sur un serveur MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | Annotations supplémentaires sur l’outil. | No | ||
| description | string | Description de l’outil. | No | |
| input_schema | Schéma JSON décrivant l’entrée de l’outil. | Yes | ||
| name | string | Nom de l’outil. | Yes |
OpenAI.MCPTool
Donnez au modèle l’accès à des outils supplémentaires via des serveurs MCP (Remote Model Context Protocol).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allowed_tools | object | No | ||
| └─ tool_names | array | Liste des noms d’outils autorisés. | No | |
| headers | object | En-têtes HTTP facultatifs à envoyer au serveur MCP. Utiliser à des fins d’authentification ou d’autres fins. | No | |
| require_approval | objet (voir les modèles valides ci-dessous) | Spécifiez les outils du serveur MCP qui nécessitent une approbation. | No | |
| server_label | string | Étiquette de ce serveur MCP, utilisée pour l’identifier dans les appels d’outils. | Yes | |
| server_url | string | URL du serveur MCP. | Yes | |
| type | enum | Type de l’outil MCP. Toujours mcp.Valeurs possibles : mcp |
Yes |
OpenAI.MetadataPropertyForRequest
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord.
Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No |
OpenAI.Model
Décrit une offre de modèle OpenAI qui peut être utilisée avec l’API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | Horodatage Unix (en secondes) lors de la création du modèle. | Yes | |
| id | string | Identificateur de modèle, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | enum | Type d’objet, qui est toujours « model ». Valeurs possibles : model |
Yes | |
| owned_by | string | Organisation propriétaire du modèle. | Yes |
OpenAI.OtherChunkingStrategyResponseParam
Cette opération est retournée lorsque la stratégie de segmentation est inconnue. En règle générale, cela est dû au fait que le fichier a été indexé avant l’introduction du chunking_strategy concept dans l’API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Toujours other.Valeurs possibles : other |
Yes |
OpenAI.ParallelToolCalls
Indique s’il faut activer l’appel de fonction parallèle pendant l’utilisation de l’outil.
Type: boolean
OpenAI.Prompt
Référence à un modèle d’invite et à ses variables.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | Identificateur unique du modèle d’invite à utiliser. | Yes | |
| variables | object | Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. | No | |
| version | string | Version facultative du modèle d’invite. | No |
OpenAI.RankingOptions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| ranker | enum | Ranker à utiliser pour la recherche de fichiers. Valeurs possibles : auto, default-2024-11-15 |
No | |
| score_threshold | number | Seuil de score pour la recherche de fichiers, nombre compris entre 0 et 1. Les nombres plus proches de 1 tenteront de retourner uniquement les résultats les plus pertinents, mais peuvent retourner moins de résultats. | No |
OpenAI.Reasoning
Modèles de série o uniquement
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | object |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| generate_summary | enum |
Déconseillé : utilisez summary à la place.Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No |
OpenAI.ReasoningEffort
Modèles de série o uniquement
Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse.
| Property | Value |
|---|---|
| Description |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
| Type | string |
| Values | lowmediumhigh |
OpenAI.ReasoningItemParam
Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Veillez à inclure ces éléments dans votre input API Réponses pour les tours suivants d’une conversation si vous gérez manuellement le contexte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | string | Contenu chiffré de l’élément de raisonnement renseigné lorsqu’une réponse est générée reasoning.encrypted_content dans le include paramètre. |
No | |
| summary | array | Contenu du texte de raisonnement. | Yes | |
| type | enum | Valeurs possibles : reasoning |
Yes |
OpenAI.ReasoningItemResource
Description de la chaîne de pensée utilisée par un modèle de raisonnement lors de la génération d’une réponse. Veillez à inclure ces éléments dans votre input API Réponses pour les tours suivants d’une conversation si vous gérez manuellement le contexte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encrypted_content | string | Contenu chiffré de l’élément de raisonnement renseigné lorsqu’une réponse est générée reasoning.encrypted_content dans le include paramètre. |
No | |
| summary | array | Contenu du texte de raisonnement. | Yes | |
| type | enum | Valeurs possibles : reasoning |
Yes |
OpenAI.ReasoningItemSummaryPart
Discriminateur pour OpenAI.ReasoningItemSummaryPart
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
summary_text |
OpenAI.ReasoningItemSummaryTextPart |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ReasoningItemSummaryPartType | Yes |
OpenAI.ReasoningItemSummaryPartType
| Property | Value |
|---|---|
| Type | string |
| Values | summary_text |
OpenAI.ReasoningItemSummaryTextPart
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Yes | ||
| type | enum | Valeurs possibles : summary_text |
Yes |
OpenAI.Response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | Yes | |
| error | object | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | Yes | |
| └─ code | OpenAI.ResponseErrorCode | Code d’erreur de la réponse. | No | |
| └─ message | string | Description lisible par l’homme de l’erreur. | No | |
| id | string | Identificateur unique pour cette réponse. | Yes | |
| incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | Yes | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| instructions | chaîne ou tableau | Yes | ||
| max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
Yes | |
| output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
Yes | |
| output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | Yes | True |
| previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| prompt | object | Référence à un modèle d’invite et à ses variables. | No | |
| └─ id | string | Identificateur unique du modèle d’invite à utiliser. | No | |
| └─ variables | OpenAI.ResponsePromptVariables | Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers. | No | |
| └─ version | string | Version facultative du modèle d’invite. | No | |
| reasoning | object |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ effort | OpenAI.ReasoningEffort |
Modèles de série o uniquement Limite l’effort sur le raisonnement des modèles de raisonnement. Actuellement, les valeurs prises en charge sont low, mediumet high. La réduction de l’effort de raisonnement peut entraîner des réponses plus rapides et moins de jetons utilisés sur le raisonnement dans une réponse. |
No | |
| └─ generate_summary | enum |
Déconseillé : utilisez summary à la place.Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| └─ summary | enum | Résumé du raisonnement effectué par le modèle. Cela peut être utile pour déboguer et comprendre le processus de raisonnement du modèle. Un des auto, conciseou detailed.Valeurs possibles : auto, , concisedetailed |
No | |
| status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
Yes | |
| text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| tool_choice | object | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
No | |
| └─ type | OpenAI.ToolChoiceObjectType | Indique que le modèle doit utiliser un outil intégré pour générer une réponse. | No | |
| tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
Yes | |
| truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | Yes |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Émis lorsqu’un extrait de code partiel est diffusé en continu par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Extrait de code partiel diffusé par l’interpréteur de code. | Yes | |
| item_id | string | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Yes | |
| output_index | integer | Index de l’élément de sortie dans la réponse pour laquelle le code est en cours de diffusion en continu. | Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call_code.delta.Valeurs possibles : response.code_interpreter_call_code.delta |
Yes |
OpenAI.ResponseCodeInterpreterCallCodeDoneEvent
Émis lorsque l’extrait de code est finalisé par l’interpréteur de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Sortie finale de l’extrait de code par l’interpréteur de code. | Yes | |
| item_id | string | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Yes | |
| output_index | integer | Index de l’élément de sortie dans la réponse pour laquelle le code est finalisé. | Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call_code.done.Valeurs possibles : response.code_interpreter_call_code.done |
Yes |
OpenAI.ResponseCodeInterpreterCallCompletedEvent
Émis lorsque l’appel de l’interpréteur de code est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Yes | |
| output_index | integer | Index de l’élément de sortie dans la réponse pour laquelle l’appel de l’interpréteur de code est terminé. | Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.completed.Valeurs possibles : response.code_interpreter_call.completed |
Yes |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Émis lorsqu’un appel d’interpréteur de code est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Yes | |
| output_index | integer | Index de l’élément de sortie dans la réponse pour laquelle l’appel de l’interpréteur de code est en cours. | Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.in_progress.Valeurs possibles : response.code_interpreter_call.in_progress |
Yes |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Émis lorsque l’interpréteur de code interprète activement l’extrait de code.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément d’appel de l’outil interpréteur de code. | Yes | |
| output_index | integer | Index de l’élément de sortie dans la réponse pour laquelle l’interpréteur de code interprète le code. | Yes | |
| type | enum | Type de l’événement. Toujours response.code_interpreter_call.interpreting.Valeurs possibles : response.code_interpreter_call.interpreting |
Yes |
OpenAI.ResponseCompletedEvent
Émis lorsque la réponse du modèle est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| └─ created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | No | |
| └─ error | OpenAI.ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | No | |
| └─ id | string | Identificateur unique pour cette réponse. | No | |
| └─ incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | No | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| └─ instructions | chaîne ou tableau | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| └─ max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| └─ max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
No | |
| └─ output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
No | |
| └─ output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| └─ previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| └─ prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| └─ temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | |
| └─ text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| └─ tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| └─ top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| └─ top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | |
| └─ truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| └─ user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No | |
| type | enum | Type de l’événement. Toujours response.completed.Valeurs possibles : response.completed |
Yes |
OpenAI.ResponseContentPartAddedEvent
Émis lorsqu’un nouveau composant de contenu est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu qui a été ajoutée. | Yes | |
| item_id | string | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ItemContentType | Contenu d’entrée et de sortie multimodaux. | No | |
| type | enum | Type de l’événement. Toujours response.content_part.added.Valeurs possibles : response.content_part.added |
Yes |
OpenAI.ResponseContentPartDoneEvent
Émis lorsqu’un composant de contenu est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu effectuée. | Yes | |
| item_id | string | ID de l’élément de sortie auquel la partie de contenu a été ajoutée. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel la partie de contenu a été ajoutée. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ItemContentType | Contenu d’entrée et de sortie multimodaux. | No | |
| type | enum | Type de l’événement. Toujours response.content_part.done.Valeurs possibles : response.content_part.done |
Yes |
OpenAI.ResponseCreatedEvent
Événement émis lors de la création d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| └─ created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | No | |
| └─ error | OpenAI.ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | No | |
| └─ id | string | Identificateur unique pour cette réponse. | No | |
| └─ incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | No | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| └─ instructions | chaîne ou tableau | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| └─ max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| └─ max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
No | |
| └─ output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
No | |
| └─ output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| └─ previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| └─ prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ status | enum | État de la génération de réponse. Un des completed, , failedin_progress, cancelled, , queuedou incomplete.Valeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| └─ temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | |
| └─ text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| └─ tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| └─ top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| └─ top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | |
| └─ truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| └─ user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No | |
| type | enum | Type de l’événement. Toujours response.created.Valeurs possibles : response.created |
Yes |
OpenAI.ResponseError
Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | OpenAI.ResponseErrorCode | Code d’erreur de la réponse. | Yes | |
| message | string | Description lisible par l’homme de l’erreur. | Yes |
OpenAI.ResponseErrorCode
Code d’erreur de la réponse.
| Property | Value |
|---|---|
| Description | Code d’erreur de la réponse. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Émis lorsqu’une erreur se produit.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | Code d’erreur. | Yes | |
| message | string | Message d’erreur. | Yes | |
| param | string | Paramètre d’erreur. | Yes | |
| type | enum | Type de l’événement. Toujours error.Valeurs possibles : error |
Yes |
OpenAI.ResponseFailedEvent
Événement émis en cas d’échec d’une réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| └─ created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | No | |
| └─ error | OpenAI.ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | No | |
| └─ id | string | Identificateur unique pour cette réponse. | No | |
| └─ incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | No | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| └─ instructions | chaîne ou tableau | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| └─ max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| └─ max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
No | |
| └─ output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
No | |
| └─ output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| └─ previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| └─ prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| └─ temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | |
| └─ text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| └─ tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| └─ top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| └─ top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | |
| └─ truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| └─ user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No | |
| type | enum | Type de l’événement. Toujours response.failed.Valeurs possibles : response.failed |
Yes |
OpenAI.ResponseFileSearchCallCompletedEvent
Émis lorsqu’un appel de recherche de fichiers est terminé (résultats trouvés).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie lancé par l’appel de recherche de fichier. | Yes | |
| output_index | integer | Index de l’élément de sortie lancé par l’appel de recherche de fichier. | Yes | |
| type | enum | Type de l’événement. Toujours response.file_search_call.completed.Valeurs possibles : response.file_search_call.completed |
Yes |
OpenAI.ResponseFileSearchCallInProgressEvent
Émis lorsqu’un appel de recherche de fichiers est lancé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie lancé par l’appel de recherche de fichier. | Yes | |
| output_index | integer | Index de l’élément de sortie lancé par l’appel de recherche de fichier. | Yes | |
| type | enum | Type de l’événement. Toujours response.file_search_call.in_progress.Valeurs possibles : response.file_search_call.in_progress |
Yes |
OpenAI.ResponseFileSearchCallSearchingEvent
Émis lorsqu’une recherche de fichier effectue actuellement une recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément de sortie lancé par l’appel de recherche de fichier. | Yes | |
| output_index | integer | Index de l’élément de sortie que l’appel de recherche de fichier effectue une recherche. | Yes | |
| type | enum | Type de l’événement. Toujours response.file_search_call.searching.Valeurs possibles : response.file_search_call.searching |
Yes |
OpenAI.ResponseFormat
Discriminateur pour OpenAI.ResponseFormat
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
text |
OpenAI.ResponseFormatText |
json_object |
OpenAI.ResponseFormatJsonObject |
json_schema |
OpenAI.ResponseFormatJsonSchema |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : text, , json_objectjson_schema |
Yes |
OpenAI.ResponseFormatJsonObject
Format de réponse d’objet JSON. Méthode plus ancienne de génération de réponses JSON.
L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. Notez que le modèle ne génère pas de JSON sans message système ou utilisateur lui demandant de le faire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. Toujours json_object.Valeurs possibles : json_object |
Yes |
OpenAI.ResponseFormatJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Options de configuration des sorties structurées, y compris un schéma JSON. | Yes | |
| └─ description | string | Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. | No | |
| └─ name | string | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | No | |
| └─ schema | OpenAI.ResponseFormatJsonSchemaSchema | Schéma pour le format de réponse, décrit en tant qu’objet json Schema. Découvrez comment créer des schémas JSON ici. |
No | |
| └─ strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. |
No | False |
| type | enum | Type de format de réponse défini. Toujours json_schema.Valeurs possibles : json_schema |
Yes |
OpenAI.ResponseFormatJsonSchemaSchema
Schéma pour le format de réponse, décrit en tant qu’objet json Schema. Découvrez comment créer des schémas JSON ici.
Type: object
OpenAI.ResponseFormatText
Format de réponse par défaut. Utilisé pour générer des réponses de texte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de format de réponse défini. Toujours text.Valeurs possibles : text |
Yes |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Émis lorsqu’il existe un delta d’arguments d’appel de fonction partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Delta des arguments d’appel de fonction ajoutés. | Yes | |
| item_id | string | ID de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel le delta des arguments d’appel de fonction est ajouté. | Yes | |
| type | enum | Type de l’événement. Toujours response.function_call_arguments.delta.Valeurs possibles : response.function_call_arguments.delta |
Yes |
OpenAI.ResponseFunctionCallArgumentsDoneEvent
Émis lorsque des arguments d’appel de fonction sont finalisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Arguments d’appel de fonction. | Yes | |
| item_id | string | ID de l’élément. | Yes | |
| output_index | integer | Index de l’élément de sortie. | Yes | |
| type | enum | Valeurs possibles : response.function_call_arguments.done |
Yes |
OpenAI.ResponseImageGenCallCompletedEvent
Émis lorsqu’un appel d’outil de génération d’images est terminé et que l’image finale est disponible.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément de génération d’image en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.image_generation_call.completed'. Valeurs possibles : response.image_generation_call.completed |
Yes |
OpenAI.ResponseImageGenCallGeneratingEvent
Émis lorsqu’un appel d’outil de génération d’images génère activement une image (état intermédiaire).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément de génération d’image en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.image_generation_call.generating'. Valeurs possibles : response.image_generation_call.generating |
Yes |
OpenAI.ResponseImageGenCallInProgressEvent
Émis lorsqu’un appel d’outil de génération d’images est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément de génération d’image en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.image_generation_call.in_progress'. Valeurs possibles : response.image_generation_call.in_progress |
Yes |
OpenAI.ResponseImageGenCallPartialImageEvent
Émis lorsqu’une image partielle est disponible pendant la diffusion en continu de génération d’images.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément de génération d’image en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| partial_image_b64 | string | Données d’image partielle encodées en base64, adaptées au rendu en tant qu’image. | Yes | |
| partial_image_index | integer | Index de base 0 pour l’image partielle (le back-end est basé sur 1, mais il s’agit de 0 pour l’utilisateur). | Yes | |
| type | enum | Type de l’événement. Always 'response.image_generation_call.partial_image'. Valeurs possibles : response.image_generation_call.partial_image |
Yes |
OpenAI.ResponseInProgressEvent
Émis lorsque la réponse est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| └─ created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | No | |
| └─ error | OpenAI.ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | No | |
| └─ id | string | Identificateur unique pour cette réponse. | No | |
| └─ incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | No | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| └─ instructions | chaîne ou tableau | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| └─ max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| └─ max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
No | |
| └─ output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
No | |
| └─ output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| └─ previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| └─ prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| └─ temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | |
| └─ text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| └─ tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| └─ top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| └─ top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | |
| └─ truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| └─ user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No | |
| type | enum | Type de l’événement. Toujours response.in_progress.Valeurs possibles : response.in_progress |
Yes |
OpenAI.ResponseIncompleteEvent
Événement émis lorsqu’une réponse se termine comme incomplète.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| └─ created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | No | |
| └─ error | OpenAI.ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | No | |
| └─ id | string | Identificateur unique pour cette réponse. | No | |
| └─ incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | No | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| └─ instructions | chaîne ou tableau | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| └─ max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| └─ max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
No | |
| └─ output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
No | |
| └─ output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| └─ previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| └─ prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| └─ temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | |
| └─ text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| └─ tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| └─ top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| └─ top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | |
| └─ truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| └─ user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No | |
| type | enum | Type de l’événement. Toujours response.incomplete.Valeurs possibles : response.incomplete |
Yes |
OpenAI.ResponseItemList
Liste des éléments de réponse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des éléments utilisés pour générer cette réponse. | Yes | |
| first_id | string | ID du premier élément de la liste. | Yes | |
| has_more | boolean | Indique s’il existe d’autres éléments disponibles. | Yes | |
| last_id | string | ID du dernier élément de la liste. | Yes | |
| object | enum | Le type d’objet retourné doit être list.Valeurs possibles : list |
Yes |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Émis lorsqu’il existe un delta (mise à jour partielle) aux arguments d’un appel d’outil MCP.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | Mise à jour partielle des arguments de l’appel de l’outil MCP. | Yes | ||
| item_id | string | Identificateur unique de l’élément d’appel de l’outil MCP en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.mcp_call.arguments_delta'. Valeurs possibles : response.mcp_call.arguments_delta |
Yes |
OpenAI.ResponseMCPCallArgumentsDoneEvent
Émis lorsque les arguments d’un appel d’outil MCP sont finalisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | Arguments finalisés pour l’appel de l’outil MCP. | Yes | ||
| item_id | string | Identificateur unique de l’élément d’appel de l’outil MCP en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.mcp_call.arguments_done'. Valeurs possibles : response.mcp_call.arguments_done |
Yes |
OpenAI.ResponseMCPCallCompletedEvent
Émis lorsqu’un appel d’outil MCP s’est terminé avec succès.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Always 'response.mcp_call.completed'. Valeurs possibles : response.mcp_call.completed |
Yes |
OpenAI.ResponseMCPCallFailedEvent
Émis lorsqu’un appel d’outil MCP a échoué.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Always 'response.mcp_call.failed'. Valeurs possibles : response.mcp_call.failed |
Yes |
OpenAI.ResponseMCPCallInProgressEvent
Émis lorsqu’un appel d’outil MCP est en cours.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément d’appel de l’outil MCP en cours de traitement. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.mcp_call.in_progress'. Valeurs possibles : response.mcp_call.in_progress |
Yes |
OpenAI.ResponseMCPListToolsCompletedEvent
Émis lorsque la liste des outils MCP disponibles a été récupérée avec succès.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Always 'response.mcp_list_tools.completed'. Valeurs possibles : response.mcp_list_tools.completed |
Yes |
OpenAI.ResponseMCPListToolsFailedEvent
Émis lorsque la tentative de liste des outils MCP disponibles a échoué.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Always 'response.mcp_list_tools.failed'. Valeurs possibles : response.mcp_list_tools.failed |
Yes |
OpenAI.ResponseMCPListToolsInProgressEvent
Émis lorsque le système est en train de récupérer la liste des outils MCP disponibles.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type de l’événement. Always 'response.mcp_list_tools.in_progress'. Valeurs possibles : response.mcp_list_tools.in_progress |
Yes |
OpenAI.ResponseOutputItemAddedEvent
Émis lorsqu’un nouvel élément de sortie est ajouté.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | object | Élément de contenu utilisé pour générer une réponse. | Yes | |
| └─ id | string | No | ||
| └─ type | OpenAI.ItemType | No | ||
| output_index | integer | Index de l’élément de sortie qui a été ajouté. | Yes | |
| type | enum | Type de l’événement. Toujours response.output_item.added.Valeurs possibles : response.output_item.added |
Yes |
OpenAI.ResponseOutputItemDoneEvent
Émis lorsqu’un élément de sortie est marqué comme terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | object | Élément de contenu utilisé pour générer une réponse. | Yes | |
| └─ id | string | No | ||
| └─ type | OpenAI.ItemType | No | ||
| output_index | integer | Index de l’élément de sortie marqué comme terminé. | Yes | |
| type | enum | Type de l’événement. Toujours response.output_item.done.Valeurs possibles : response.output_item.done |
Yes |
OpenAI.ResponsePromptVariables
Mappage facultatif de valeurs à remplacer par des variables dans votre invite. Les valeurs de substitution peuvent être des chaînes ou d’autres types d’entrée Response tels que des images ou des fichiers.
Type: object
OpenAI.ResponseQueuedEvent
Émis lorsqu’une réponse est mise en file d’attente et en attente d’être traitée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | object | Yes | ||
| └─ background | boolean | Indique s’il faut exécuter la réponse du modèle en arrière-plan. | No | False |
| └─ created_at | integer | Horodatage Unix (en secondes) de la création de cette réponse. | No | |
| └─ error | OpenAI.ResponseError | Objet d’erreur retourné lorsque le modèle ne parvient pas à générer une réponse. | No | |
| └─ id | string | Identificateur unique pour cette réponse. | No | |
| └─ incomplete_details | object | Détails sur la raison pour laquelle la réponse est incomplète. | No | |
| └─ reason | enum | La raison pour laquelle la réponse est incomplète. Valeurs possibles : max_output_tokens, content_filter |
No | |
| └─ instructions | chaîne ou tableau | Message système (ou développeur) inséré dans le contexte du modèle. Lors de l’utilisation avec previous_response_id, les instructions d’une réponse précédente ne seront pas transmises à la réponse suivante. Cela facilite l’échange de messages système (ou développeur) dans de nouvelles réponses. |
No | |
| └─ max_output_tokens | integer | Limite supérieure pour le nombre de jetons pouvant être générés pour une réponse, y compris les jetons de sortie visibles et les jetons de raisonnement | No | |
| └─ max_tool_calls | integer | Nombre maximal d’appels à des outils intégrés qui peuvent être traités dans une réponse. Ce nombre maximal s’applique à tous les appels d’outils intégrés, et non par outil individuel. Toute autre tentative d’appel d’un outil par le modèle est ignorée. | No | |
| └─ metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| └─ object | enum | Type d’objet de cette ressource - toujours défini sur response.Valeurs possibles : response |
No | |
| └─ output | array | Tableau d’éléments de contenu générés par le modèle. - La longueur et l’ordre des éléments dans le output tableau dépendent de la réponse du modèle.- Au lieu d’accéder au premier élément du output tableau et en supposant qu’il s’agit d’un assistant message avec le contenu généré par le modèle, vous pouvez envisager d’utiliser la output_text propriété où il est pris en charge dans les kits sdk. |
No | |
| └─ output_text | string | Propriété de commodité du KIT de développement logiciel (SDK) qui contient la sortie de texte agrégée de tous les output_text éléments du output tableau, le cas échéant.Pris en charge dans les sdk Python et JavaScript. |
No | |
| └─ parallel_tool_calls | boolean | Indique s’il faut autoriser le modèle à exécuter des appels d’outil en parallèle. | No | True |
| └─ previous_response_id | string | ID unique de la réponse précédente au modèle. Utilisez cette option pour créer des conversations à plusieurs tours. | No | |
| └─ prompt | OpenAI.Prompt | Référence à un modèle d’invite et à ses variables. | No | |
| └─ reasoning | OpenAI.Reasoning |
Modèles de série o uniquement Options de configuration pour les modèles de raisonnement. |
No | |
| └─ status | enum | État de la génération de réponse. Un des completed, , , failedin_progresscancelled, , queued, ou .incompleteValeurs possibles : completed, , failedin_progress, cancelled, queuedincomplete |
No | |
| └─ temperature | number | Quelle température d’échantillonnage utiliser, entre 0 et 2. Les valeurs plus élevées telles que 0,8 rendent la sortie plus aléatoire, tandis que les valeurs inférieures comme 0,2 le rendent plus prioritaire et déterministe. Nous vous recommandons généralement de modifier cela ou top_p pas les deux. |
No | |
| └─ text | object | Options de configuration d’une réponse texte à partir du modèle. Peut être du texte brut ou des données JSON structurées. | No | |
| └─ format | OpenAI.ResponseTextFormatConfiguration | No | ||
| └─ tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceObject | Comment le modèle doit sélectionner l’outil (ou les outils) à utiliser lors de la génération d’une réponse. Consultez le tools paramètre pour savoir comment spécifier les outils que le modèle peut appeler. |
No | |
| └─ tools | array | Un tableau d’outils que le modèle peut appeler lors de la génération d’une réponse. Vous pouvez spécifier l’outil à utiliser en définissant le tool_choice paramètre.Les deux catégories d’outils que vous pouvez fournir sont les suivantes : - Outils intégrés : outils fournis par OpenAI qui étendent les fonctionnalités du modèle. |
No | |
| └─ top_logprobs | integer | Entier compris entre 0 et 20 spécifiant le nombre de jetons les plus probables à retourner à chaque position de jeton, chacun avec une probabilité de journal associée. | No | |
| └─ top_p | number | Alternative à l’échantillonnage avec la température, appelée échantillonnage de noyau, où le modèle considère les résultats des jetons avec top_p masse de probabilité. Par conséquent, 0,1 signifie uniquement les jetons comprenant les 10 premières% masse de probabilité sont considérés. Nous vous recommandons généralement de modifier cela ou temperature pas les deux. |
No | |
| └─ truncation | enum | Stratégie de troncation à utiliser pour la réponse du modèle. - auto: si le contexte de cette réponse et des précédents dépasse la taille de la fenêtre de contexte du modèle, le modèle tronque la réponse pour qu’elle corresponde à la fenêtre de contexte en supprimant les éléments d’entrée au milieu de la conversation.- disabled (valeur par défaut) : si une réponse de modèle dépasse la taille de la fenêtre de contexte d’un modèle, la requête échoue avec une erreur 400.Valeurs possibles : auto, disabled |
No | |
| └─ usage | OpenAI.ResponseUsage | Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés. | No | |
| └─ user | string | Identificateur unique représentant votre utilisateur final, qui peut aider OpenAI à surveiller et détecter les abus. | No | |
| type | enum | Type de l’événement. Always 'response.queued'. Valeurs possibles : response.queued |
Yes |
OpenAI.ResponseReasoningDeltaEvent
Émis lorsqu’il existe un delta (mise à jour partielle) vers le contenu du raisonnement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu de raisonnement dans l’élément de sortie. | Yes | |
| delta | Mise à jour partielle du contenu du raisonnement. | Yes | ||
| item_id | string | Identificateur unique de l’élément pour lequel le raisonnement est mis à jour. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| type | enum | Type de l’événement. Always 'response.reasoning.delta'. Valeurs possibles : response.reasoning.delta |
Yes |
OpenAI.ResponseReasoningDoneEvent
Émis lorsque le contenu du raisonnement est finalisé pour un élément.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu de raisonnement dans l’élément de sortie. | Yes | |
| item_id | string | Identificateur unique de l’élément pour lequel le raisonnement est finalisé. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| text | string | Texte de raisonnement finalisé. | Yes | |
| type | enum | Type de l’événement. Always 'response.reasoning.done'. Valeurs possibles : response.reasoning.done |
Yes |
OpenAI.ResponseReasoningSummaryDeltaEvent
Émis lorsqu’il existe un delta (mise à jour partielle) vers le contenu récapitulative du raisonnement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | Mise à jour partielle du contenu récapitulative du raisonnement. | Yes | ||
| item_id | string | Identificateur unique de l’élément pour lequel le résumé du raisonnement est mis à jour. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| summary_index | integer | Index de la partie récapitulative dans l’élément de sortie. | Yes | |
| type | enum | Type de l’événement. Always 'response.reasoning_summary.delta'. Valeurs possibles : response.reasoning_summary.delta |
Yes |
OpenAI.ResponseReasoningSummaryDoneEvent
Émis lorsque le contenu récapitulative du raisonnement est finalisé pour un élément.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | Identificateur unique de l’élément pour lequel le résumé du raisonnement est finalisé. | Yes | |
| output_index | integer | Index de l’élément de sortie dans le tableau de sortie de la réponse. | Yes | |
| summary_index | integer | Index de la partie récapitulative dans l’élément de sortie. | Yes | |
| text | string | Texte résumé du raisonnement finalisé. | Yes | |
| type | enum | Type de l’événement. Always 'response.reasoning_summary.done'. Valeurs possibles : response.reasoning_summary.done |
Yes |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Émis lorsqu’une nouvelle partie récapitulative de raisonnement est ajoutée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément avec lequel cette partie récapitulative est associée. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel cette partie récapitulative est associée. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | integer | Index de la partie récapitulative dans le résumé du raisonnement. | Yes | |
| type | enum | Type de l’événement. Toujours response.reasoning_summary_part.added.Valeurs possibles : response.reasoning_summary_part.added |
Yes |
OpenAI.ResponseReasoningSummaryPartDoneEvent
Émis lorsqu’une partie récapitulative de raisonnement est terminée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément avec lequel cette partie récapitulative est associée. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel cette partie récapitulative est associée. | Yes | |
| part | object | Yes | ||
| └─ type | OpenAI.ReasoningItemSummaryPartType | No | ||
| summary_index | integer | Index de la partie récapitulative dans le résumé du raisonnement. | Yes | |
| type | enum | Type de l’événement. Toujours response.reasoning_summary_part.done.Valeurs possibles : response.reasoning_summary_part.done |
Yes |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Émis lorsqu’un delta est ajouté à un texte récapitulative de raisonnement.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Delta de texte ajouté au résumé. | Yes | |
| item_id | string | ID de l’élément associé à ce delta de texte récapitulative. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel ce delta de texte récapitulative est associé. | Yes | |
| summary_index | integer | Index de la partie récapitulative dans le résumé du raisonnement. | Yes | |
| type | enum | Type de l’événement. Toujours response.reasoning_summary_text.delta.Valeurs possibles : response.reasoning_summary_text.delta |
Yes |
OpenAI.ResponseReasoningSummaryTextDoneEvent
Émis lorsqu’un texte récapitulative de raisonnement est terminé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID de l’élément avec lequel ce texte de synthèse est associé. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel ce texte récapitulative est associé. | Yes | |
| summary_index | integer | Index de la partie récapitulative dans le résumé du raisonnement. | Yes | |
| text | string | Texte intégral du résumé du raisonnement terminé. | Yes | |
| type | enum | Type de l’événement. Toujours response.reasoning_summary_text.done.Valeurs possibles : response.reasoning_summary_text.done |
Yes |
OpenAI.ResponseRefusalDeltaEvent
Émis lorsqu’il existe un texte de refus partiel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu à laquelle le texte de refus est ajouté. | Yes | |
| delta | string | Texte de refus ajouté. | Yes | |
| item_id | string | ID de l’élément de sortie auquel le texte de refus est ajouté. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel le texte de refus est ajouté. | Yes | |
| type | enum | Type de l’événement. Toujours response.refusal.delta.Valeurs possibles : response.refusal.delta |
Yes |
OpenAI.ResponseRefusalDoneEvent
Émis lorsque le texte de refus est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu que le texte de refus est finalisé. | Yes | |
| item_id | string | ID de l’élément de sortie que le texte de refus est finalisé. | Yes | |
| output_index | integer | Index de l’élément de sortie que le texte de refus est finalisé. | Yes | |
| refusal | string | Texte de refus finalisé. | Yes | |
| type | enum | Type de l’événement. Toujours response.refusal.done.Valeurs possibles : response.refusal.done |
Yes |
OpenAI.ResponseStreamEvent
Discriminateur pour OpenAI.ResponseStreamEvent
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| sequence_number | integer | Numéro de séquence de cet événement. | Yes | |
| type | OpenAI.ResponseStreamEventType | Yes |
OpenAI.ResponseStreamEventType
| Property | Value |
|---|---|
| Type | string |
| Values | response.audio.deltaresponse.audio.doneresponse.audio_transcript.deltaresponse.audio_transcript.doneresponse.code_interpreter_call_code.deltaresponse.code_interpreter_call_code.doneresponse.code_interpreter_call.completedresponse.code_interpreter_call.in_progressresponse.code_interpreter_call.interpretingresponse.completedresponse.content_part.addedresponse.content_part.doneresponse.createderrorresponse.file_search_call.completedresponse.file_search_call.in_progressresponse.file_search_call.searchingresponse.function_call_arguments.deltaresponse.function_call_arguments.doneresponse.in_progressresponse.failedresponse.incompleteresponse.output_item.addedresponse.output_item.doneresponse.refusal.deltaresponse.refusal.doneresponse.output_text.annotation.addedresponse.output_text.deltaresponse.output_text.doneresponse.reasoning_summary_part.addedresponse.reasoning_summary_part.doneresponse.reasoning_summary_text.deltaresponse.reasoning_summary_text.doneresponse.web_search_call.completedresponse.web_search_call.in_progressresponse.web_search_call.searchingresponse.image_generation_call.completedresponse.image_generation_call.generatingresponse.image_generation_call.in_progressresponse.image_generation_call.partial_imageresponse.mcp_call.arguments_deltaresponse.mcp_call.arguments_doneresponse.mcp_call.completedresponse.mcp_call.failedresponse.mcp_call.in_progressresponse.mcp_list_tools.completedresponse.mcp_list_tools.failedresponse.mcp_list_tools.in_progressresponse.queuedresponse.reasoning.deltaresponse.reasoning.doneresponse.reasoning_summary.deltaresponse.reasoning_summary.done |
OpenAI.ResponseTextDeltaEvent
Émis lorsqu’il existe un delta de texte supplémentaire.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu à laquelle le delta de texte a été ajouté. | Yes | |
| delta | string | Delta de texte ajouté. | Yes | |
| item_id | string | ID de l’élément de sortie auquel le delta de texte a été ajouté. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel le delta de texte a été ajouté. | Yes | |
| type | enum | Type de l’événement. Toujours response.output_text.delta.Valeurs possibles : response.output_text.delta |
Yes |
OpenAI.ResponseTextDoneEvent
Émis lorsque le contenu du texte est finalisé.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | Index de la partie de contenu que le contenu du texte est finalisé. | Yes | |
| item_id | string | ID de l’élément de sortie que le contenu du texte est finalisé. | Yes | |
| output_index | integer | Index de l’élément de sortie que le contenu du texte est finalisé. | Yes | |
| text | string | Contenu texte finalisé. | Yes | |
| type | enum | Type de l’événement. Toujours response.output_text.done.Valeurs possibles : response.output_text.done |
Yes |
OpenAI.ResponseTextFormatConfiguration
Discriminateur pour OpenAI.ResponseTextFormatConfiguration
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
text |
OpenAI.ResponseTextFormatConfigurationText |
json_object |
OpenAI.ResponseTextFormatConfigurationJsonObject |
json_schema |
OpenAI.ResponseTextFormatConfigurationJsonSchema |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ResponseTextFormatConfigurationType | Objet spécifiant le format que le modèle doit générer. La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni. Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.Non recommandé pour les modèles gpt-4o et versions ultérieures : Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge. |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : json_object |
Yes |
OpenAI.ResponseTextFormatConfigurationJsonSchema
Format de réponse de schéma JSON. Utilisé pour générer des réponses JSON structurées.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Description du format de réponse utilisé par le modèle pour déterminer comment répondre au format. | No | |
| name | string | Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. | Yes | |
| schema | OpenAI.ResponseFormatJsonSchemaSchema | Schéma pour le format de réponse, décrit en tant qu’objet json Schema. Découvrez comment créer des schémas JSON ici. |
Yes | |
| strict | boolean | Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le schema champ. Seul un sous-ensemble de schéma JSON est pris en charge quand strict c’est true. |
No | False |
| type | enum | Type de format de réponse défini. Toujours json_schema.Valeurs possibles : json_schema |
Yes |
OpenAI.ResponseTextFormatConfigurationText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : text |
Yes |
OpenAI.ResponseTextFormatConfigurationType
Objet spécifiant le format que le modèle doit générer.
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour les modèles gpt-4o et versions ultérieures :
Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schema est recommandée pour les modèles qui le prennent en charge.
| Property | Value |
|---|---|
| Description | Objet spécifiant le format que le modèle doit générer. |
La configuration { "type": "json_schema" } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.
Le format par défaut n’est { "type": "text" } pas doté d’options supplémentaires.
Non recommandé pour les modèles gpt-4o et versions ultérieures :
Paramètre permettant { "type": "json_object" } d’activer l’ancien mode JSON, ce qui garantit que le message généré par le modèle est json valide. L’utilisation json_schemaest recommandée pour les modèles qui le prennent en charge.
OpenAI.ResponseUsage
Représente les détails de l’utilisation des jetons, notamment les jetons d’entrée, les jetons de sortie, la répartition des jetons de sortie et le nombre total de jetons utilisés.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | Nombre de jetons d’entrée. | Yes | |
| input_tokens_details | object | Répartition détaillée des jetons d’entrée. | Yes | |
| └─ cached_tokens | integer | Nombre de jetons récupérés à partir du cache. | No | |
| output_tokens | integer | Nombre de jetons de sortie. | Yes | |
| output_tokens_details | object | Répartition détaillée des jetons de sortie. | Yes | |
| └─ reasoning_tokens | integer | Nombre de jetons de raisonnement. | No | |
| total_tokens | integer | Nombre total de jetons utilisés. | Yes |
OpenAI.ResponseWebSearchCallCompletedEvent
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID unique de l’élément de sortie associé à l’appel de recherche web. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel l’appel de recherche web est associé. | Yes | |
| type | enum | Type de l’événement. Toujours response.web_search_call.completed.Valeurs possibles : response.web_search_call.completed |
Yes |
OpenAI.ResponseWebSearchCallInProgressEvent
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID unique de l’élément de sortie associé à l’appel de recherche web. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel l’appel de recherche web est associé. | Yes | |
| type | enum | Type de l’événement. Toujours response.web_search_call.in_progress.Valeurs possibles : response.web_search_call.in_progress |
Yes |
OpenAI.ResponseWebSearchCallSearchingEvent
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | ID unique de l’élément de sortie associé à l’appel de recherche web. | Yes | |
| output_index | integer | Index de l’élément de sortie auquel l’appel de recherche web est associé. | Yes | |
| type | enum | Type de l’événement. Toujours response.web_search_call.searching.Valeurs possibles : response.web_search_call.searching |
Yes |
OpenAI.ResponsesAssistantMessageItemParam
Élément de paramètre de message avec le assistant rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours assistant.Valeurs possibles : assistant |
Yes |
OpenAI.ResponsesAssistantMessageItemResource
Élément de ressource de message avec le assistant rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours assistant.Valeurs possibles : assistant |
Yes |
OpenAI.ResponsesDeveloperMessageItemParam
Élément de paramètre de message avec le developer rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours developer.Valeurs possibles : developer |
Yes |
OpenAI.ResponsesDeveloperMessageItemResource
Élément de ressource de message avec le developer rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours developer.Valeurs possibles : developer |
Yes |
OpenAI.ResponsesMessageItemParam
Élément de message de réponse, représentant un rôle et du contenu, tel qu’il est fourni en tant que paramètres de demande client.
Discriminateur pour OpenAI.ResponsesMessageItemParam
Ce composant utilise la propriété role pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemParam |
system |
OpenAI.ResponsesSystemMessageItemParam |
developer |
OpenAI.ResponsesDeveloperMessageItemParam |
assistant |
OpenAI.ResponsesAssistantMessageItemParam |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | object | Collection de rôles valides pour les éléments de message de réponse. | Yes | |
| type | enum | Type de l’élément de réponses, qui est toujours « message ». Valeurs possibles : message |
Yes |
OpenAI.ResponsesMessageItemResource
Élément de ressource de message de réponse, représentant un rôle et du contenu, tel qu’il est fourni sur les réponses de service.
Discriminateur pour OpenAI.ResponsesMessageItemResource
Ce composant utilise la propriété role pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
user |
OpenAI.ResponsesUserMessageItemResource |
system |
OpenAI.ResponsesSystemMessageItemResource |
developer |
OpenAI.ResponsesDeveloperMessageItemResource |
assistant |
OpenAI.ResponsesAssistantMessageItemResource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| role | object | Collection de rôles valides pour les éléments de message de réponse. | Yes | |
| status | enum | État de l’élément. Un des in_progress, completedou incomplete. Renseigné lorsque les éléments sont retournés via l’API.Valeurs possibles : in_progress, , completedincomplete |
Yes | |
| type | enum | Type de l’élément de réponses, qui est toujours « message ». Valeurs possibles : message |
Yes |
OpenAI.ResponsesMessageRole
Collection de rôles valides pour les éléments de message de réponse.
| Property | Value |
|---|---|
| Description | Collection de rôles valides pour les éléments de message de réponse. |
| Type | string |
| Values | systemdeveloperuserassistant |
OpenAI.ResponsesSystemMessageItemParam
Élément de paramètre de message avec le system rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours system.Valeurs possibles : system |
Yes |
OpenAI.ResponsesSystemMessageItemResource
Élément de ressource de message avec le system rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours system.Valeurs possibles : system |
Yes |
OpenAI.ResponsesUserMessageItemParam
Élément de paramètre de message avec le user rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours user.Valeurs possibles : user |
Yes |
OpenAI.ResponsesUserMessageItemResource
Élément de ressource de message avec le user rôle.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Contenu associé au message. | Yes | |
| role | enum | Rôle du message, qui est toujours user.Valeurs possibles : user |
Yes |
OpenAI.RunGraderRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. | Yes | |
| └─ calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | No | |
| └─ evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| └─ input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | No | |
| └─ model | string | Modèle à utiliser pour l’évaluation. | No | |
| └─ name | string | Nom du classateur. | No | |
| └─ operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
No | |
| └─ range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| └─ reference | string | Texte en cours de classement. | No | |
| └─ sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| └─ source | string | Code source du script Python. | No | |
| └─ type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
No | |
| item | Élément de jeu de données fourni au classateur. Cela sera utilisé pour remplir l’espace item de noms. |
No | ||
| model_sample | string | Exemple de modèle à évaluer. Cette valeur sera utilisée pour remplir l’espace sample de noms. La output_json variable est remplie si l’exemple de modèle est une chaîne JSON valide. |
Yes |
OpenAI.RunGraderResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Yes | ||
| └─ errors | object | No | ||
| └─ formula_parse_error | boolean | No | ||
| └─ invalid_variable_error | boolean | No | ||
| └─ model_grader_parse_error | boolean | No | ||
| └─ model_grader_refusal_error | boolean | No | ||
| └─ model_grader_server_error | boolean | No | ||
| └─ model_grader_server_error_details | string | No | ||
| └─ other_error | boolean | No | ||
| └─ python_grader_runtime_error | boolean | No | ||
| └─ python_grader_runtime_error_details | string | No | ||
| └─ python_grader_server_error | boolean | No | ||
| └─ python_grader_server_error_type | string | No | ||
| └─ sample_parse_error | boolean | No | ||
| └─ truncated_observation_error | boolean | No | ||
| └─ unresponsive_reward_error | boolean | No | ||
| └─ execution_time | number | No | ||
| └─ name | string | No | ||
| └─ sampled_model_name | string | No | ||
| └─ scores | No | |||
| └─ token_usage | integer | No | ||
| └─ type | string | No | ||
| model_grader_token_usage_per_model | Yes | |||
| reward | number | Yes | ||
| sub_rewards | Yes |
OpenAI.StaticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | Nombre de jetons qui se chevauchent entre des blocs. La valeur par défaut est 400.Notez que le chevauchement ne doit pas dépasser la moitié de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | Nombre maximal de jetons dans chaque bloc. La valeur par défaut est 800. La valeur minimale est 100 et la valeur maximale est 4096. |
Yes |
OpenAI.StaticChunkingStrategyRequestParam
Personnalisez votre propre stratégie de segmentation en définissant la taille de bloc et le chevauchement de blocs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | OpenAI.StaticChunkingStrategy | Yes | ||
| type | enum | Toujours static.Valeurs possibles : static |
Yes |
OpenAI.StaticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | OpenAI.StaticChunkingStrategy | Yes | ||
| type | enum | Toujours static.Valeurs possibles : static |
Yes |
OpenAI.StopConfiguration
Non pris en charge avec les derniers modèles o3 de raisonnement et o4-mini.
Jusqu’à 4 séquences où l’API cesse de générer d’autres jetons. Le texte retourné ne contient pas la séquence d’arrêt.
Ce schéma accepte l’un des types suivants :
- string
- array
OpenAI.Tool
Discriminateur pour OpenAI.Tool
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search_preview |
OpenAI.WebSearchPreviewTool |
code_interpreter |
OpenAI.CodeInterpreterTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellTool |
mcp |
OpenAI.MCPTool |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ToolType | Outil qui peut être utilisé pour générer une réponse. | Yes |
OpenAI.ToolChoiceObject
Discriminateur pour OpenAI.ToolChoiceObject
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
file_search |
OpenAI.ToolChoiceObjectFileSearch |
computer_use_preview |
OpenAI.ToolChoiceObjectComputer |
web_search_preview |
OpenAI.ToolChoiceObjectWebSearch |
image_generation |
OpenAI.ToolChoiceObjectImageGen |
code_interpreter |
OpenAI.ToolChoiceObjectCodeInterpreter |
function |
OpenAI.ToolChoiceObjectFunction |
mcp |
OpenAI.ToolChoiceObjectMCP |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.ToolChoiceObjectType | Indique que le modèle doit utiliser un outil intégré pour générer une réponse. | Yes |
OpenAI.ToolChoiceObjectCodeInterpreter
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : code_interpreter |
Yes |
OpenAI.ToolChoiceObjectComputer
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : computer_use_preview |
Yes |
OpenAI.ToolChoiceObjectFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : file_search |
Yes |
OpenAI.ToolChoiceObjectFunction
Utilisez cette option pour forcer le modèle à appeler une fonction spécifique.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de la fonction à appeler. | Yes | |
| type | enum | Pour l’appel de fonction, le type est toujours function.Valeurs possibles : function |
Yes |
OpenAI.ToolChoiceObjectImageGen
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : image_generation |
Yes |
OpenAI.ToolChoiceObjectMCP
Utilisez cette option pour forcer le modèle à appeler un outil spécifique sur un serveur MCP distant.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | Nom de l’outil à appeler sur le serveur. | No | |
| server_label | string | Étiquette du serveur MCP à utiliser. | Yes | |
| type | enum | Pour les outils MCP, le type est toujours mcp.Valeurs possibles : mcp |
Yes |
OpenAI.ToolChoiceObjectType
Indique que le modèle doit utiliser un outil intégré pour générer une réponse.
| Property | Value |
|---|---|
| Description | Indique que le modèle doit utiliser un outil intégré pour générer une réponse. |
| Type | string |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewimage_generationcode_interpretermcp |
OpenAI.ToolChoiceObjectWebSearch
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Valeurs possibles : web_search_preview |
Yes |
OpenAI.ToolChoiceOptions
Contrôle (le cas échéant) l’outil appelé par le modèle.
none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.
auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.
required signifie que le modèle doit appeler un ou plusieurs outils.
| Property | Value |
|---|---|
| Description | Contrôle (le cas échéant) l’outil appelé par le modèle.none signifie que le modèle n’appelle pas d’outil et génère plutôt un message.auto signifie que le modèle peut choisir entre générer un message ou appeler un ou plusieurs outils.required signifie que le modèle doit appeler un ou plusieurs outils. |
| Type | string |
| Values | noneautorequired |
OpenAI.ToolType
Outil qui peut être utilisé pour générer une réponse.
| Property | Value |
|---|---|
| Description | Outil qui peut être utilisé pour générer une réponse. |
| Type | string |
| Values | file_searchfunctioncomputer_use_previewweb_search_previewmcpcode_interpreterimage_generationlocal_shell |
OpenAI.TopLogProb
Probabilité de journal supérieure d’un jeton.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Yes | ||
| logprob | number | Yes | ||
| token | string | Yes |
OpenAI.TranscriptionAudioResponseFormat
References: OpenAI.AudioResponseFormat
OpenAI.TranscriptionInclude
| Property | Value |
|---|---|
| Type | string |
| Values | logprobs |
OpenAI.TranscriptionSegment
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Logprob moyen du segment. Si la valeur est inférieure à -1, tenez compte de l’échec des logprobs. | Yes | |
| compression_ratio | number | Taux de compression du segment. Si la valeur est supérieure à 2,4, envisagez l’échec de la compression. | Yes | |
| end | number | Heure de fin du segment en secondes. | Yes | |
| id | integer | Identificateur unique du segment. | Yes | |
| no_speech_prob | number | Probabilité d’absence de parole dans le segment. Si la valeur est supérieure à 1,0 et que la avg_logprob valeur est inférieure à -1, tenez compte de ce segment silencieux. |
Yes | |
| seek | integer | Recherchez le décalage du segment. | Yes | |
| start | number | Heure de début du segment en secondes. | Yes | |
| temperature | number | Paramètre de température utilisé pour générer le segment. | Yes | |
| text | string | Contenu texte du segment. | Yes | |
| tokens | array | Tableau d’ID de jetons pour le contenu du texte. | Yes |
OpenAI.TranscriptionWord
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Heure de fin du mot en secondes. | Yes | |
| start | number | Heure de début du mot en secondes. | Yes | |
| word | string | Contenu texte du mot. | Yes |
OpenAI.TranslationAudioResponseFormat
References: OpenAI.AudioResponseFormat
OpenAI.UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | Yes |
OpenAI.UpdateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | object | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| └─ anchor | enum | Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.Valeurs possibles : last_active_at |
No | |
| └─ days | integer | Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. | No | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
No | |
| name | string | Nom du magasin vectoriel. | No |
OpenAI.VadConfig
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| prefix_padding_ms | integer | Quantité d’audio à inclure avant la détection de la voix vaD (en millisecondes). | No | 300 |
| silence_duration_ms | integer | Durée du silence pour détecter l’arrêt de la parole (en millisecondes). Avec des valeurs plus courtes, le modèle répond plus rapidement, mais peut passer à des pauses courtes de l’utilisateur. |
No | 200 |
| threshold | number | Seuil de sensibilité (0,0 à 1,0) pour la détection d’activité vocale. Un seuil plus élevé nécessite un son plus fort pour activer le modèle, et peut donc s’améliorer dans les environnements bruyants. | No | 0.5 |
| type | enum | Doit être défini pour activer la segmentation manuelle à server_vad l’aide du VAD côté serveur.Valeurs possibles : server_vad |
Yes |
OpenAI.ValidateGraderRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. | Yes | |
| └─ calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | No | |
| └─ evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| └─ input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | No | |
| └─ model | string | Modèle à utiliser pour l’évaluation. | No | |
| └─ name | string | Nom du classateur. | No | |
| └─ operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
No | |
| └─ range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| └─ reference | string | Texte en cours de classement. | No | |
| └─ sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| └─ source | string | Code source du script Python. | No | |
| └─ type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
No |
OpenAI.ValidateGraderResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| grader | object | Objet StringCheckGrader qui effectue une comparaison de chaînes entre l’entrée et la référence à l’aide d’une opération spécifiée. | No | |
| └─ calculate_output | string | Formule permettant de calculer la sortie en fonction des résultats du classateur. | No | |
| └─ evaluation_metric | enum | Métrique d’évaluation à utiliser. Un des fuzzy_match, bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5ou .rouge_lValeurs possibles : fuzzy_match, , , bleugleumeteorrouge_1rouge_2rouge_3rouge_4rouge_5rouge_l |
No | |
| └─ graders | object | No | ||
| └─ image_tag | string | Balise d’image à utiliser pour le script Python. | No | |
| └─ input | array | Texte d’entrée. Cela peut inclure des chaînes de modèle. | No | |
| └─ model | string | Modèle à utiliser pour l’évaluation. | No | |
| └─ name | string | Nom du classateur. | No | |
| └─ operation | enum | Opération de vérification de chaîne à effectuer. Un des eq, , ne, likeou ilike.Valeurs possibles : eq, , nelike,ilike |
No | |
| └─ range | array | Plage du score. La valeur par défaut est [0, 1]. |
No | |
| └─ reference | string | Texte en cours de classement. | No | |
| └─ sampling_params | Paramètres d’échantillonnage du modèle. | No | ||
| └─ source | string | Code source du script Python. | No | |
| └─ type | enum | Type d’objet, qui est toujours multi.Valeurs possibles : multi |
No |
OpenAI.VectorStoreExpirationAfter
Stratégie d’expiration d’un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | enum | Horodatage d’ancre après lequel la stratégie d’expiration s’applique. Ancres prises en charge : last_active_at.Valeurs possibles : last_active_at |
Yes | |
| days | integer | Nombre de jours après l’heure d’ancrage que le magasin vectoriel expire. | Yes |
OpenAI.VectorStoreFileAttributes
Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres.
Type: object
OpenAI.VectorStoreFileBatchObject
Lot de fichiers attachés à un magasin vectoriel.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le lot de fichiers de magasin de vecteurs a été créé. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Nombre de fichiers qui ont été annulés. | No | |
| └─ completed | integer | Nombre de fichiers qui ont été traités. | No | |
| └─ failed | integer | Nombre de fichiers qui n’ont pas pu être traité. | No | |
| └─ in_progress | integer | Nombre de fichiers en cours de traitement. | No | |
| └─ total | integer | Nombre total de fichiers. | No | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.file_batch.Valeurs possibles : vector_store.files_batch |
Yes | |
| status | enum | État du lot de fichiers de magasin de vecteurs, qui peut être in_progresssoit , completedsoit cancelledfailed.Valeurs possibles : in_progress, , completedcancelled,failed |
Yes | |
| vector_store_id | string | ID du magasin de vecteurs auquel le fichier est attaché. | Yes |
OpenAI.VectorStoreFileObject
Liste de fichiers attachés à un magasin de vecteurs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères, de booléens ou de nombres. | No | |
| chunking_strategy | object | No | ||
| └─ type | enum | Valeurs possibles : static, other |
No | |
| created_at | integer | Horodatage Unix (en secondes) pour lequel le fichier de magasin de vecteurs a été créé. | Yes | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_error | object | Dernière erreur associée à ce fichier de magasin de vecteurs.
null Sera en l’absence d’erreurs. |
Yes | |
| └─ code | enum | L’un d’entre server_error eux ou rate_limit_exceeded.Valeurs possibles : server_error, , unsupported_fileinvalid_file |
No | |
| └─ message | string | Description lisible par l’homme de l’erreur. | No | |
| object | enum | Type d’objet, qui est toujours vector_store.file.Valeurs possibles : vector_store.file |
Yes | |
| status | enum | État du fichier de magasin de vecteurs, qui peut être in_progresssoit , completed, cancelledou failed. L’état completed indique que le fichier de magasin de vecteurs est prêt à être utilisé.Valeurs possibles : in_progress, , completedcancelled,failed |
Yes | |
| usage_bytes | integer | Utilisation totale du magasin de vecteurs en octets. Notez que cela peut être différent de la taille du fichier d’origine. | Yes | |
| vector_store_id | string | ID du magasin de vecteurs auquel le fichier est attaché. | Yes |
OpenAI.VectorStoreObject
Un magasin vectoriel est une collection de fichiers traités qui peuvent être utilisés par l’outil file_search .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Horodatage Unix (en secondes) pour lequel le magasin de vecteurs a été créé. | Yes | |
| expires_after | OpenAI.VectorStoreExpirationAfter | Stratégie d’expiration d’un magasin de vecteurs. | No | |
| expires_at | integer | Horodatage Unix (en secondes) pour l’expiration du magasin vectoriel. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | Nombre de fichiers annulés. | No | |
| └─ completed | integer | Nombre de fichiers qui ont été traités avec succès. | No | |
| └─ failed | integer | Nombre de fichiers qui n’ont pas pu être traité. | No | |
| └─ in_progress | integer | Nombre de fichiers en cours de traitement. | No | |
| └─ total | integer | Nombre total de fichiers. | No | |
| id | string | Identificateur, qui peut être référencé dans les points de terminaison d’API. | Yes | |
| last_active_at | integer | Horodatage Unix (en secondes) pour lequel le magasin vectoriel a été actif pour la dernière fois. | Yes | |
| metadata | object | Ensemble de 16 paires clé-valeur pouvant être attachées à un objet. Cela peut être utile pour stocker des informations supplémentaires sur l’objet dans un format structuré et interroger des objets via l’API ou le tableau de bord. Les clés sont des chaînes dont la longueur maximale est de 64 caractères. Les valeurs sont des chaînes dont la longueur maximale est de 512 caractères. |
Yes | |
| name | string | Nom du magasin vectoriel. | Yes | |
| object | enum | Type d’objet, qui est toujours vector_store.Valeurs possibles : vector_store |
Yes | |
| status | enum | État du magasin vectoriel, qui peut être soit expired, in_progresssoit completed. L’état indique completed que le magasin vectoriel est prêt à être utilisé.Valeurs possibles : expired, , in_progresscompleted |
Yes | |
| usage_bytes | integer | Nombre total d’octets utilisés par les fichiers dans le magasin vectoriel. | Yes |
OpenAI.VoiceIdsShared
| Property | Value |
|---|---|
| Type | string |
| Values | alloyashballadcoralechofableonyxnovasageshimmerverse |
OpenAI.WebSearchAction
Discriminateur pour OpenAI.WebSearchAction
Ce composant utilise la propriété type pour faire la distinction entre différents types :
| Type Value | Schema |
|---|---|
find |
OpenAI.WebSearchActionFind |
open_page |
OpenAI.WebSearchActionOpenPage |
search |
OpenAI.WebSearchActionSearch |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | OpenAI.WebSearchActionType | Yes |
OpenAI.WebSearchActionFind
Type d’action « find » : recherche un modèle dans une page chargée.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| pattern | string | Modèle ou texte à rechercher dans la page. | Yes | |
| type | enum | Type d’action. Valeurs possibles : find |
Yes | |
| url | string | URL de la page recherchée pour le modèle. | Yes |
OpenAI.WebSearchActionOpenPage
Type d’action « open_page » : ouvre une URL spécifique à partir des résultats de la recherche.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Type d’action. Valeurs possibles : open_page |
Yes | |
| url | string | URL ouverte par le modèle. | Yes |
OpenAI.WebSearchActionSearch
Type d’action « search » : effectue une requête de recherche web.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| query | string | Requête de recherche. | Yes | |
| type | enum | Type d’action. Valeurs possibles : search |
Yes |
OpenAI.WebSearchActionType
| Property | Value |
|---|---|
| Type | string |
| Values | searchopen_pagefind |
OpenAI.WebSearchPreviewTool
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| search_context_size | enum | Conseils de haut niveau pour la quantité d’espace de fenêtre contextuelle à utiliser pour la recherche. Un des low, mediumou high.
medium est la valeur par défaut.Valeurs possibles : low, , mediumhigh |
No | |
| type | enum | Type de l’outil de recherche web. L’un d’entre web_search_preview eux ou web_search_preview_2025_03_11.Valeurs possibles : web_search_preview |
Yes | |
| user_location | object | No | ||
| └─ type | OpenAI.LocationType | No |
OpenAI.WebSearchToolCallItemParam
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | object | Yes | ||
| └─ type | OpenAI.WebSearchActionType | No | ||
| type | enum | Valeurs possibles : web_search_call |
Yes |
OpenAI.WebSearchToolCallItemResource
Remarque : web_search n’est pas encore disponible via Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | object | Yes | ||
| └─ type | OpenAI.WebSearchActionType | No | ||
| status | enum | État de l’appel de l’outil de recherche web. Valeurs possibles : in_progress, , searchingcompleted,failed |
Yes | |
| type | enum | Valeurs possibles : web_search_call |
Yes |
PineconeChatDataSource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | object | Informations de paramètre pour contrôler l’utilisation de la source de données Pinecone. | Yes | |
| └─ allow_partial_result | boolean | Si la valeur est true, le système autorise l’utilisation des résultats partiels de la recherche et la requête échoue si toutes les requêtes partielles échouent. Si elle n’est pas spécifiée ou spécifiée comme false, la requête échoue si une requête de recherche échoue. | No | False |
| └─ authentication | object | No | ||
| └─ key | string | No | ||
| └─ type | enum | Valeurs possibles : api_key |
No | |
| └─ embedding_dependency | object | Représentation d’une source de vectorisation de données utilisable en tant que ressource d’incorporation avec une source de données. | No | |
| └─ type | AzureChatDataSourceVectorizationSourceType | Identificateur de différenciation pour la source de vectorisation concrète. | No | |
| └─ environment | string | Nom de l’environnement à utiliser avec Pinecone. | No | |
| └─ fields_mapping | object | Mappages de champs à appliquer aux données utilisées par la source de données Pinecone. Notez que les mappages de champs de contenu sont requis pour Pinecone. |
No | |
| └─ content_fields | array | No | ||
| └─ content_fields_separator | string | No | ||
| └─ filepath_field | string | No | ||
| └─ title_field | string | No | ||
| └─ url_field | string | No | ||
| └─ in_scope | boolean | Indique si les requêtes doivent être limitées à l’utilisation des données indexées. | No | |
| └─ include_contexts | array | Propriétés du contexte de sortie à inclure dans la réponse. Par défaut, les citations et l’intention sont demandées. |
No | ['citations', 'intent'] |
| └─ index_name | string | Nom de l’index de base de données Pinecone à utiliser. | No | |
| └─ max_search_queries | integer | Nombre maximal de requêtes réécrites qui doivent être envoyées au fournisseur de recherche pour un seul message utilisateur. Par défaut, le système effectue une détermination automatique. |
No | |
| └─ strictness | integer | La rigueur configurée du filtrage de pertinence de la recherche. Une plus grande rigueur augmente la précision, mais le rappel de la réponse est plus faible. |
No | |
| └─ top_n_documents | integer | Nombre configuré de documents à présenter dans la requête. | No | |
| type | enum | Identificateur de type discriminé, qui est toujours « pincone ». Valeurs possibles : pinecone |
Yes |
Quality
Qualité du contenu vidéo à récupérer. Cela spécifie la qualité du contenu vidéo à retourner.
| Property | Value |
|---|---|
| Description | Qualité du contenu vidéo à récupérer. Cela spécifie la qualité du contenu vidéo à retourner. |
| Type | string |
| Values | highlow |
ResponseFormatJSONSchemaRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Schéma JSON pour le format de réponse | Yes | |
| type | enum | Type de format de réponse Valeurs possibles : json_schema |
Yes |
ResponseModalities
Types de sortie que vous souhaitez générer le modèle. La plupart des modèles sont capables de générer du texte, qui est la valeur par défaut :
["text"]
Le gpt-4o-audio-preview modèle peut également être utilisé pour générer de l’audio. Pour demander que ce modèle génère à la fois du texte et des réponses audio, vous pouvez utiliser :
["text", "audio"]
Tableau de : chaîne
SpeechGenerationResponseFormat
Formats de sortie audio pris en charge pour la synthèse vocale.
Ce composant peut être l’un des éléments suivants :
VideoGeneration
Résultat de la génération de vidéos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Heure de création de la génération de vidéos. | Yes | |
| height | integer | Hauteur de la vidéo. | Yes | |
| id | string | ID de la génération de vidéo. | Yes | |
| job_id | string | ID du travail de génération de vidéo pour cette vidéo. | Yes | |
| n_seconds | integer | Durée de la génération de vidéos. | Yes | |
| object | enum | Valeurs possibles : video.generation |
Yes | |
| prompt | string | Invite de cette génération vidéo. | Yes | |
| width | integer | Largeur de la vidéo. | Yes |
VideoGenerationJob
Un travail de génération de vidéos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | Heure de création du travail. | Yes | |
| expires_at | integer | Heure à laquelle le travail est automatiquement supprimé du service. Le contenu vidéo et les métadonnées du travail doivent être stockés avant cette date pour éviter toute perte de données. | No | |
| failure_reason | chaîne (voir les modèles valides ci-dessous) | No | ||
| finished_at | integer | Heure à laquelle le travail s’est terminé avec toutes les générations vidéo. | No | |
| generations | array | Vidéos générées pour ce travail. Le nombre dépend de la n_variants donnée et de la réussite de la création des générations. | No | |
| height | integer | Hauteur de la vidéo. | Yes | |
| id | string | ID du travail. | Yes | |
| inpaint_items | array | Éléments d’inpainting facultatifs pour ce travail de génération de vidéos. | No | |
| model | string | Nom du déploiement à utiliser pour ce travail de génération de vidéos. | Yes | |
| n_seconds | integer | Durée du travail de génération de vidéos. | Yes | |
| n_variants | integer | Nombre de vidéos à créer en tant que variantes pour ce travail de génération de vidéos. | Yes | |
| object | enum | Valeurs possibles : video.generation.job |
Yes | |
| prompt | string | Invite de ce travail de génération de vidéos. | Yes | |
| status | object | État d’un travail de génération de vidéos. | Yes | |
| width | integer | Hauteur de la vidéo. | Yes |
VideoGenerationJobList
Liste des travaux de génération vidéo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Liste des travaux de génération vidéo. | Yes | |
| first_id | string | ID du premier travail de la page active, le cas échéant. | No | |
| has_more | boolean | Indicateur indiquant s’il existe davantage de travaux disponibles après la liste. | Yes | |
| last_id | string | ID du dernier travail de la page active, le cas échéant. | No | |
| object | enum | Valeurs possibles : list |
Yes |
Next steps
Découvrez les modèles et le réglage précis avec l’API REST. En savoir plus sur les modèles underlying qui alimentent Azure OpenAI.