Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Visualización actual:Versión - del portal de Foundry (clásico)Cambio a la versión del nuevo portal de Foundry
Note
Los vínculos de este artículo pueden abrir contenido en la nueva documentación de Microsoft Foundry en lugar de la documentación de Foundry (clásico) que está viendo ahora.
Este artículo ofrece detalles sobre los endpoints de la API REST de inferencia para Azure OpenAI.
API specs
La gestión e interacción con los modelos y recursos de OpenAI de Azure se divide en tres superficies principales de API:
- Control plane
- Plano de datos - creación
- Plano de datos - inferencia
Cada superficie/especificación de API encapsula un conjunto diferente de capacidades de Azure OpenAI. Cada API tiene su propio conjunto único de versiones de vista previa y de APIs estables/disponibles en general (GA). Actualmente, los lanzamientos de vista previa tienden a seguir un ritmo mensual.
Important
Ahora existe una nueva API de inferencia de vista previa. Descubre más en nuestra guía del ciclo de vida de la API.
| API | Última versión previa | Último lanzamiento de GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | La API del plano de control se utiliza para operaciones como la creación de recursos, el despliegue de modelos y otras tareas de gestión de recursos de mayor nivel. El plano de control también regula lo que es posible hacer con capacidades como Azure Resource Manager, Bicep, Terraform y CLI de Azure. |
| Data plane | v1 preview |
v1 |
Spec files | La API del plano de datos controla las operaciones de inferencia y autoría. |
Authentication
Azure OpenAI ofrece dos métodos de autenticación. Puedes usar API Keys o Microsoft Entra ID.
Autenticación de clave API: Para este tipo de autenticación, todas las solicitudes API deben incluir la clave API en la
api-keycabecera HTTP. El Quickstart ofrece orientación sobre cómo realizar llamadas con este tipo de autenticación.Microsoft Entra ID: Puedes autenticar una llamada API usando un token Microsoft Entra. Los tokens de autenticación se incluyen en una solicitud como Authorizationcabecera. El token proporcionado debe ir precedido porBearer, por ejemploBearer YOUR_AUTH_TOKEN. Puedes leer nuestra guía práctica sobre autenticación con Microsoft Entra ID.
Versionado de la API REST
Las APIs de servicio se versionan usando el api-version parámetro de consulta. Todas las versiones siguen la estructura de fechas YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferencia en planos de datos
El resto del artículo trata sobre la versión previa 2025-04-01-preview de la especificación de inferencia del plano de datos de OpenAI Azure.
Si buscas documentación sobre la última versión de la API de GA, consulta la última API de inferencia de planos de datos de GA
Completaciones - Crear
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Genera best_of completaciones en el lado del servidor y devuelve el "mejor" (el que tiene la mayor probabilidad logarítmica por token). Los resultados no se pueden transmitir en streaming.Cuando se usa con n, best_of controla el número de completaciones candidatas y n especifica cuántas devolver ââ'¬â€œ best_of debe ser mayor que n.Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| echo | boolean | Haz eco del prompt además de la finalización | No | False |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. | No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes de muestrear. El efecto exacto varía según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. Por ejemplo, puedes pasar {"50256": -100} para evitar que se genere el <token |endoftext> |. |
No | None |
| logprobs | integer | Incluye las probabilidades logarítmicas de los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devuelve una lista de los 5 tokens más probables. La API siempre devuelve el logprob del token muestreado, por lo que puede haber hasta logprobs+1 hasta elementos en la respuesta.El valor máximo para logprobs es 5. |
No | None |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización. El recuento de tokens de tu prompt plus max_tokens no puede superar la longitud contextual del modelo. |
No | 16 |
| n | integer | Cuántas finalizaciones generar para cada prompt. Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. | No | 0 |
| prompt | Cadena o matriz | El prompt para generar completaciones para codificado como una cadena, array de cadenas, array de tokens o array de arrays de tokens. Ten en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, así que si no se especifica un prompt, el modelo se genera como si fuera al principio de un nuevo documento. |
Yes | |
| seed | integer | Si se especifica, nuestro sistema hace el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| stop | Cadena o matriz | Hasta cuatro secuencias donde la API deja de generar más tokens. El texto devuelto no contendrá la secuencia de paradas. | No | |
| stream | boolean | Si se debe refluir en un progreso parcial. Si se activa, los tokens se envían solo como eventos enviados por el servidor a medida que están disponibles, y el flujo termina con un data: [DONE] mensaje.
Ejemplo Python código. |
No | False |
| suffix | string | El sufijo que aparece después de completar el texto insertado. Este parámetro solo es compatible con gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 hacen que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la hacen más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respuestas: Código de estado: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incrustaciones - Crear
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtén una representación vectorial de una entrada dada que pueda ser fácilmente consumida por modelos y algoritmos de aprendizaje automático.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | El ID de despliegue del modelo que se desplegó. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| dimensions | integer | El número de dimensiones que deben tener las incrustaciones de salida resultantes. Solo soportado en text-embedding-3 y modelos posteriores. |
No | |
| encoding_format | string | El formato para devolver las incrustaciones. Puede ser cualquiera de float las dos o base64. Por defecto es float. |
No | |
| input | Cadena o matriz | Introduce texto para incrustar, codificado como una cadena o array de tokens. Para incrustar múltiples entradas en una sola solicitud, pasa un array de cadenas o un array de arrays de tokens. La entrada no debe superar los tokens máximos de entrada para el modelo (8.192 tokens para text-embedding-ada-002), no puede ser una cadena vacía, y cualquier array debe tener 2.048 dimensiones o menos. |
Yes | |
| input_type | string | Tipo de entrada de búsqueda de incrustación a utilizar | No | |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Examples
Example
Devuelven los embeddings de un prompt dado.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respuestas: Código de estado: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Completados de chat - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Crea una finalización para el mensaje del chat
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parámetros para la salida de audio. Es necesario cuando se solicita la salida de audio con modalities: ["audio"]. |
No | |
| └─ format | enum | Especifica el formato de audio de salida. Debe ser uno de wav, mp3, flac, opus, o pcm16. Valores posibles: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Especifica el tipo de voz. Las voces apoyadas son alloy, echo, fable, onyx, nova, y shimmer.Valores posibles: alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | array | Las entradas de configuración para las extensiones de chat de Azure OpenAI que las utilizan. Esta especificación extra solo es compatible con Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| function_call | cadena o chatCompletionFunctionCallOption | Obsoleto en favor de tool_choice.Controla qué función (si la llama) el modelo. none significa que el modelo no llamará a una función y en su lugar genera un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.none es el valor predeterminado cuando no hay funciones presentes.
auto es el valor predeterminado si hay funciones presentes. |
No | |
| functions | array | Obsoleto en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No | |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes de muestrear. El efecto exacto varía según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. |
No | None |
| logprobs | boolean | Si devolver las probabilidades logarítmicas de los tokens de salida o no. Si es cierto, devuelve las probabilidades logarítmicas de cada token de salida devuelto en el content de message. |
No | False |
| max_completion_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. | No | |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización del chat. La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud del contexto del modelo. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. Ejemplo Python código. | Yes | |
| metadata | object | Etiquetas y valores definidos por el desarrollador usados para filtrar completaciones en el panel de completaciones almacenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de salida que desearías que el modelo generara para esta petición. La mayoría de los modelos son capaces de generar texto, que es el valor por defecto: ["text"]El gpt-4o-audio-preview modelo también puede usarse para generar audio. Para solicitar que este modelo genere tanto respuestas de texto como de audio, puedes utilizar:["text", "audio"] |
No | |
| n | integer | Cuántas opciones de finalización de chat generar para cada mensaje de entrada. Se te cobrará en función del número de tokens generados en todas las opciones. Mantente n en la medida 1 de minimizar costes. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| prediction | PredictionContent | Configuración para una Salida Predicha, que puede mejorar considerablemente los tiempos de respuesta cuando gran parte de la respuesta del modelo se conoce de antemano. Esto es más común cuando regeneras un archivo con solo cambios menores en la mayoría del contenido. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| reasoning_effort | enum |
Solo modelos O1 Restringe el esfuerzo en el razonamiento para modelos de razonamiento. Los valores actualmente soportados son low, medium, y high. Reducir el esfuerzo de razonamiento puede resultar en respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta.Valores posibles: low, medium, high |
No | |
| response_format | ResponseFormatoTexto o RespuestaFormatoJsonObjeto o RespuestaFormatoJsonSchema | Un objeto que especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más nuevos que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas, que garantizan que el modelo coincide con el esquema JSON que has proporcionado.Configurar para { "type": "json_object" } activa el modo JSON, que garantiza que el mensaje generado por el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| seed | integer | Esta función está en Beta. Si se especifica, nuestro sistema hace el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| stop | Cadena o matriz | Hasta 4 secuencias donde la API deja de generar más tokens. |
No | |
| store | boolean | Si almacenar o no la salida de esta solicitud de finalización del chat para su uso en nuestros productos de destilación o evaluación de modelos. | No | |
| stream | boolean | Si se activa, se envían deltas parciales de mensaje, como en ChatGPT. Los tokens se envían como eventos solo de datos enviados por el servidor a medida que están disponibles, y el flujo termina con un data: [DONE] mensaje.
Ejemplo Python código. |
No | False |
| stream_options | chatCompletionStreamOptions | Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 hacen que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la hacen más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si hay herramientas presentes. |
No | |
| tools | array | Una lista de herramientas que el modelo puede llamar. Actualmente, solo se soportan funciones como herramienta. Úsalo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se soportan un máximo de 128 funciones. |
No | |
| top_logprobs | integer | Un entero entre 0 y 20 que especifica el número de tokens más probables de devolver en cada posición de token, cada uno con una probabilidad logarítmica asociada.
logprobs debe establecerse en true si se usa este parámetro. |
No | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No | |
| user_security_context | userSecurityContext | El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación de IA y el usuario final que interactúa con la aplicación de IA. Estos campos ayudan a tus equipos de operaciones de seguridad a investigar y mitigar incidentes de seguridad proporcionando un enfoque integral para proteger tus aplicaciones de IA. Más información sobre cómo proteger las aplicaciones de IA usando Microsoft Defender para la nube. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Crea una finalización para el prompt, los parámetros y el modelo elegido proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una completación basada en los datos de Azure Search y la identidad gestionada asignada al sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización basada en datos vectoriales de imagen de Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización basada en los datos del vector de búsqueda de Azure, el mensaje del asistente anterior y la identidad gestionada asignada por el usuario.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización para la Azure Cosmos DB proporcionada.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización para la base de datos Mongo proporcionada.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización para el Elasticsearch proporcionado.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Crea una finalización para el recurso Pinepine proporcionado.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcripciones - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcribe el audio al idioma de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model | string | ID del modelo a usar. Las opciones son gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, y gpt-4o-transcribe-diarize. |
Yes | |
| file | string | El objeto de archivo de audio para transcribir. | Yes | |
| language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 mejora la precisión y la latencia. | No | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo utiliza la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
| timestamp_granularities[] | array | Las granularidades de la marca temporal para esta transcripción.
response_format debe configurarse verbose_json para usar granularidades de marca de tiempo. Se soportan una o ambas opciones: word, o segment. Nota: No hay latencia adicional para las marcas de tiempo de segmentos, pero generar marcas de tiempo de palabra implica latencia adicional. |
No | ['segment'] |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texto transcrito en el formato de salida (cuando response_format era uno de text, vtt o srt). |
Examples
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtiene texto transcrito y metadatos asociados de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traducciones - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcribe y traduce el audio de entrada a texto en inglés.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El archivo de audio para traducir. | Yes | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería estar en inglés. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo utiliza la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | object | |
| text/plain | string | Texto transcrito en el formato de salida (cuando response_format era de texto, vtt o srt). |
Examples
Example
Obtiene texto transcrito en inglés y metadatos asociados a partir de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtiene texto transcrito en inglés y metadatos asociados a partir de los datos de audio hablado proporcionados.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respuestas: Código de estado: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Discurso - Crear
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Genera audio a partir del texto de entrada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | El texto para sintetizar audio. La longitud máxima es de 4.096 caracteres. | Yes | |
| response_format | enum | El formato para sintetizar el audio. Valores posibles: mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | La velocidad del audio sintetizado. Seleccione un valor de 0.25 hasta 4.0.
1.0 es el valor predeterminado. |
No | 1.0 |
| voice | enum | La voz para usar en la síntesis de voz. Valores posibles: alloy, echo, fable, onyx, nova, shimmer |
Yes |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | string |
Examples
Example
Sintetiza audio a partir del texto proporcionado.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respuestas: Código de estado: 200
{
"body": "101010101"
}
Generaciones de imágenes - Crear
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Genera un lote de imágenes a partir de un pie de foto en un despliegue dado de un modelo de generación de imágenes
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permite establecer transparencia para el fondo de las imágenes generadas. Este parámetro solo es compatible con modelos en serie gpt-image-1. | No | auto |
| n | integer | El número de imágenes que hay que generar. Para dall-e-3, solo se soporta n=1. | No | 1 |
| output_compression | integer | El nivel de compresión (0-100%) para las imágenes generadas. Este parámetro solo es compatible con modelos de la serie gpt-image-1 con el formato de salida jpeg. | No | 100 |
| output_format | imagesOutputFormat | El formato de archivo en el que se devuelven las imágenes generadas. Solo soportado para modelos de la serie GPT-image-1. | No | png |
| prompt | string | Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 32.000 caracteres para la serie gpt-image-1 y 4.000 caracteres para dall-e-3 | Yes | |
| partial_images | integer | El número de imágenes parciales que hay que generar. Este parámetro se utiliza para respuestas en streaming que devuelven imágenes parciales. El valor debe estar entre 0 y 3. Cuando se configura en 0, la respuesta será una sola imagen enviada en un evento de streaming. Ten en cuenta que la imagen final puede enviarse antes de que se generen el número completo de imágenes parciales si la imagen completa se genera más rápido. | 0 | |
| stream | boolean | Edita la imagen en modo streaming. | no | false |
| quality | imageQuality | La calidad de la imagen que se generará. | No | auto |
| response_format | imagesResponseFormat | El formato en el que se devuelven las imágenes generadas. Este parámetro no está soportado para gpt-image-1modelos en serie -, que siempre devolverán imágenes codificadas en base64.Valores posibles: url, b64_json. |
No | url |
| size | imageSize | El tamaño de las imágenes generadas. | No | auto |
| style | imageStyle | El estilo de las imágenes generadas. Solo es compatible con DALL-E-3. | No | vivid |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No |
Responses
Código de estado: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de estado: por defecto
Descripción: Ha ocurrido un error.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Crea imágenes con un prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respuestas: Código de estado: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Generaciones de imágenes - Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita una imagen de un pie de foto en un despliegue dado de un modelo gpt-image-1
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | path | Yes | string | |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: multipart/form-data
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Cadena o matriz | La(s) imagen(es) a editar. Debe ser un archivo de imagen compatible o un array de imágenes. Cada imagen debe ser un archivo png o jpg de menos de 50MB. | Yes | |
| input_fidelity | string | Controla cuánto esfuerzo ejercerá el modelo para que coincida con el estilo y las características, especialmente los rasgos faciales, de las imágenes de entrada. Este parámetro solo es compatible con modelos en serie gpt-image-1. Apoyos high y low. |
no |
low. |
| mask | string | Una imagen adicional cuyas áreas totalmente transparentes (por ejemplo, donde alfa es cero) indica dónde debe editarse la imagen. Si se proporcionan varias imágenes, la máscara se aplicará a la primera imagen. Debe ser un archivo PNG válido, menos de 4MB y tener las mismas dimensiones que la imagen. | No | |
| n | integer | El número de imágenes que hay que generar. Debe de estar entre 1 y 10. | No | 1 |
| prompt | string | Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 32.000 caracteres. | Yes | |
| quality | imageQuality | La calidad de la imagen que se generará. | No | auto |
| partial_images | El número de imágenes parciales que hay que generar. Este parámetro se utiliza para respuestas en streaming que devuelven imágenes parciales. El valor debe estar entre 0 y 3. Cuando se configura en 0, la respuesta será una sola imagen enviada en un evento de streaming. Ten en cuenta que la imagen final puede enviarse antes de que se generen el número completo de imágenes parciales si la imagen completa se genera más rápido. | |||
| stream | boolean | Edita la imagen en modo streaming. | no | false |
| response_format | imagesResponseFormat | El formato en el que se devuelven las imágenes generadas. | No | url |
| size | imageSize | El tamaño de las imágenes generadas. | No | auto |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No |
Responses
Código de estado: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de estado: por defecto
Descripción: Ha ocurrido un error.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Lista - Asistentes
Note
La API de Asistentes está obsoleta y será retirada el 26 de agosto de 2026. Utiliza el servicio de agentes de fundición Microsoft disponible en general. Sigue la guía de migración para actualizar tus cargas de trabajo. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Devuelve una lista de asistentes.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Devuelve una lista de asistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Crear - Asistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crea un asistente con un modelo e instrucciones.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descripción del asistente. La longitud máxima es de 512 caracteres. |
No | |
| instructions | string | Las instrucciones del sistema que usa el asistente. La longitud máxima es de 256.000 caracteres. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | Yes | ||
| name | string | El nombre del asistente. La longitud máxima es de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacenamiento vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| └─ vector_stores | array | Un ayudante para crear un almacén vectorial con file_ids y adjuntarlo a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Una lista de herramientas activadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Crea un asistente con un modelo e instrucciones.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obtén - Asistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Recupera a un asistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | La identificación del asistente a recuperar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Recupera a un asistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - Asistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica a un asistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | El ID del asistente para modificar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descripción del asistente. La longitud máxima es de 512 caracteres. |
No | |
| instructions | string | Las instrucciones del sistema que usa el asistente. La longitud máxima es de 32.768 caracteres. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | No | ||
| name | string | El nombre del asistente. La longitud máxima es de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Anula la lista de IDs de archivo disponibles para la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Anula el almacenamiento vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Una lista de herramientas activadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica a un asistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Eliminar - Asistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Elimina un asistente.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | path | Yes | string | El ID del asistente para eliminar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Elimina a un asistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Create - Hilo
Note
La API de Asistentes está obsoleta y será retirada el 26 de agosto de 2026. Utiliza el servicio de agentes de fundición Microsoft disponible en general. Sigue la guía de migración para actualizar tus cargas de trabajo. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Crea un hilo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Una lista de mensajes para empezar el hilo. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| tool_resources | object | Un conjunto de recursos que están disponibles para las herramientas del asistente en este hilo. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacén vectorial adjunto a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No | |
| └─ vector_stores | array | Un ayudante para crear un almacén vectorial con file_ids y adjuntarlo a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Crea un hilo.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Conseguir - Hilo
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera un hilo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo para recuperar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera un hilo.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar - Hilo
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica un hilo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo para modificar. Solo los metadata que pueden ser modificados. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| tool_resources | object | Un conjunto de recursos que están disponibles para las herramientas del asistente en este hilo. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo disponibles para la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacén vectorial adjunto a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica un hilo.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respuestas: Código de estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Eliminar - Hilo
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Borra un hilo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo para eliminar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Elimina un hilo.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista - Mensajes
Note
La API de Asistentes está obsoleta y será retirada el 26 de agosto de 2026. Utiliza el servicio de agentes de fundición Microsoft disponible en general. Sigue la guía de migración para actualizar tus cargas de trabajo. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Devuelve una lista de mensajes para un hilo dado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID de los hilos a los que pertenecen los mensajes. |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| run_id | query | No | string | Filtra los mensajes por el ID de ejecución que los generó. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Create - Mensaje
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Crea un mensaje.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID de los hilos para crear un mensaje. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Una lista de archivos adjuntos al mensaje y las herramientas a las que deberían añadirse. | No | |
| content | string | El contenido del mensaje. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| role | string | El papel de la entidad que crea el mensaje. Los valores permitidos incluyen: - user: Indica que el mensaje es enviado por un usuario real y debe usarse en la mayoría de los casos para representar mensajes generados por el usuario.- assistant: Indica que el mensaje ha sido generado por el asistente. Utiliza este valor para insertar mensajes del asistente en la conversación. |
Yes |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Crea un mensaje.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respuestas: Código de estado: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obtener - Mensaje
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recupera un mensaje.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID de los hilos a los que pertenece este mensaje. |
| message_id | path | Yes | string | El ID del mensaje para recuperar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recupera un mensaje.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar - Mensaje
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica un mensaje.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo al que pertenece este mensaje. |
| message_id | path | Yes | string | El ID del mensaje a modificar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modifica un mensaje.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respuestas: Código de estado: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Crear - Hilar y ejecutar
Note
La API de Asistentes está obsoleta y será retirada el 26 de agosto de 2026. Utiliza el servicio de agentes de fundición Microsoft disponible en general. Sigue la guía de migración para actualizar tus cargas de trabajo. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crea un hilo y ejecutalo en una sola petición.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | El ID del asistente para ejecutar esta ejecución. | Yes | |
| instructions | string | Anula el mensaje de sistema predeterminado del asistente. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| max_completion_tokens | integer | El número máximo de fichas de finalización que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de finalización especificado, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de finalización especificados, terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| max_prompt_tokens | integer | El número máximo de fichas de prompt que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de la indicación especificadas, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de prompt especificados, la secuencia terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | El ID de los modelos que se van a usar para ejecutar esta ejecución. Si aquí se proporciona un valor, anulará el modelo asociado al asistente. Si no, se utilizará el modelo asociado al asistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| stream | boolean | Si true, devuelve una secuencia de eventos que ocurren durante la Ejecución como eventos enviados por el servidor, terminando cuando la Ejecución entra en estado terminal con un data: [DONE] mensaje. |
No | |
| stream_options | chatCompletionStreamOptions | Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.auto es el valor por defecto y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.Especificar una herramienta concreta como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. |
No | |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El ID del almacén vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Anula las herramientas que el asistente pueda usar para esta partida. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles sobre cómo se truncará un hilo antes de la ejecución. Usa esto para controlar la ventana de contexto inicial de la partida. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crea un hilo y ejecutalo en una sola petición.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respuestas: Código de estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista - Carreras
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Devuelve una lista de ejecuciones pertenecientes a un hilo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo al que pertenece la partida. |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Devuelve una lista de ejecuciones pertenecientes a un hilo.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Crear - Ejecutar
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crea una carrera.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo a ejecutar. |
| include[] | query | No | array | Una lista de campos adicionales para incluir en la respuesta. Actualmente, el único valor soportado es step_details.tool_calls[*].file_search.results[*].content obtener el contenido del resultado de búsqueda del archivo. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Añade instrucciones adicionales al final de las instrucciones para la partida. Esto es útil para modificar el comportamiento por ejecución sin anular otras instrucciones. | No | |
| additional_messages | array | Añade mensajes adicionales al hilo antes de crear la ejecución. | No | |
| assistant_id | string | El ID del asistente para ejecutar esta ejecución. | Yes | |
| instructions | string | Anula el mensaje de sistema predeterminado del asistente. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| max_completion_tokens | integer | El número máximo de fichas de finalización que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de finalización especificado, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de finalización especificados, terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| max_prompt_tokens | integer | El número máximo de fichas de prompt que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de la indicación especificadas, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de prompt especificados, la secuencia terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | El ID del Modelo que se va a usar para ejecutar esta ejecución. Si aquí se proporciona un valor, anulará el modelo asociado al asistente. Si no, se utilizará el modelo asociado al asistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| stream | boolean | Si true, devuelve una secuencia de eventos que ocurren durante la Ejecución como eventos enviados por el servidor, terminando cuando la Ejecución entra en estado terminal con un data: [DONE] mensaje. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.auto es el valor por defecto y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.Especificar una herramienta concreta como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. |
No | |
| tools | array | Anula las herramientas que el asistente pueda usar para esta partida. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles sobre cómo se truncará un hilo antes de la ejecución. Usa esto para controlar la ventana de contexto inicial de la partida. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crea una carrera.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
¡Corre - Corre
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera una carrera.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID de los hilos que se ejecutaron. |
| run_id | path | Yes | string | El ID de la carrera a recuperar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Corre.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar - Ejecutar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica una carrera.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID de los hilos que se ejecutaron. |
| run_id | path | Yes | string | El ID de la partida a modificar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica una carrera.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respuestas: Código de estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar - Salidas de herramientas para ejecutar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Cuando una ejecución tiene y status: "requires_action"required_action.type es submit_tool_outputs, este endpoint puede usarse para enviar las salidas de las llamadas a herramientas una vez que estén todas completadas. Todos los resultados deben enviarse en una sola solicitud.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID de los hilos a los que pertenece esta partida. |
| run_id | path | Yes | string | El ID de la ejecución que requiere la salida de la herramienta. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, devuelve una secuencia de eventos que ocurren durante la Ejecución como eventos enviados por el servidor, terminando cuando la Ejecución entra en estado terminal con un data: [DONE] mensaje. |
No | |
| tool_outputs | array | Una lista de herramientas para las que se envían los resultados. | Yes |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Cuando una ejecución tiene y status: "requires_action"required_action.type es submit_tool_outputs, este endpoint puede usarse para enviar las salidas de las llamadas a herramientas una vez que estén todas completadas. Todos los resultados deben enviarse en una sola solicitud.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respuestas: Código de estado: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar - Correr
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela una partida que es in_progress.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo al que pertenece esta partida. |
| run_id | path | Yes | string | El ID de la carrera para cancelar. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Cancela una partida que es in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista - Pasos de Carrera
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Devuelve una lista de pasos de ejecución pertenecientes a una ejecución.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo al que pertenecen los pasos de ejecución y ejecución. |
| run_id | path | Yes | string | El ID de la ejecución a la que pertenecen los pasos de ejecución. |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| api-version | query | Yes | string | |
| include[] | query | No | array | Una lista de campos adicionales para incluir en la respuesta. Actualmente, el único valor soportado es step_details.tool_calls[*].file_search.results[*].content obtener el contenido del resultado de búsqueda del archivo. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Devuelve una lista de pasos de ejecución pertenecientes a una ejecución.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Paso de Corre - Corre
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Recupera un escalón para correr.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | path | Yes | string | El ID del hilo al que pertenece el paso run y run. |
| run_id | path | Yes | string | El ID de la ejecución a la que pertenece el paso de ejecución. |
| step_id | path | Yes | string | El ID del paso de ejecución para recuperar. |
| include[] | query | No | array | Una lista de campos adicionales para incluir en la respuesta. Actualmente, el único valor soportado es step_details.tool_calls[*].file_search.results[*].content obtener el contenido del resultado de búsqueda del archivo. |
| api-version | query | Yes | string |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Recupera un escalón para correr.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista - Almacenes vectoriales
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Devuelve una lista de almacenes vectoriales.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Devuelve una lista de almacenes vectoriales.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Create - Vector Store
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crea un almacén vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. Solo aplicable si file_ids no está vacío. |
No | |
| expires_after | vectorStoreExpirationAfter | La política de caducidad para una tienda vectorial. | No | |
| file_ids | array | Una lista de IDs de archivo que debería usar el almacén vectorial. Útil para herramientas que file_search pueden acceder a archivos. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| name | string | El nombre de la tienda vectorial. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Crea un almacén vectorial.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obtener - Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera un almacén vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial para recuperar. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera un almacén vectorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar - Almacenamiento vectorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica un almacén vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacenamiento vectorial para modificar. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La política de caducidad para una tienda vectorial. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| name | string | El nombre de la tienda vectorial. | No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica un almacén vectorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Eliminar - Vector Store
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Elimina un almacén vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial para eliminar. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Elimina un almacén vectorial.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista - Archivos de almacenamiento vectorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Devuelve una lista de archivos de almacenamiento vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacenamiento vectorial al que pertenecen los archivos. |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| filter | query | No | string Valores posibles: in_progress, completed, failed, cancelled |
Filtra por estado del archivo. Uno de in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Devuelve una lista de archivos de almacenamiento vectorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - Archivo de almacenamiento vectorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crea un archivo de almacenamiento vectorial adjuntando un archivo a un almacén vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial para el cual crear un archivo. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. |
No | |
| file_id | string | Un ID de archivo que debería usar el almacén vectorial. Útil para herramientas que file_search pueden acceder a archivos. |
Yes |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Crea un archivo de almacenamiento vectorial adjuntando un archivo a un almacén vectorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respuestas: Código de estado: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Get - Archivo de almacenamiento vectorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera un archivo de almacenamiento vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial al que pertenece el archivo. |
| file_id | path | Yes | string | El ID del archivo que se está recuperando. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera un archivo de almacenamiento vectorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Eliminar - Archivo de almacenamiento vectorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Elimina un archivo de almacenamiento vectorial. Esto eliminará el archivo de la tienda vectorial, pero el archivo en sí no se eliminará. Para eliminar el archivo, usa el endpoint de eliminar archivo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial al que pertenece el archivo. |
| file_id | path | Yes | string | El ID del archivo para eliminar. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Elimina un archivo de almacenamiento vectorial. Esto eliminará el archivo de la tienda vectorial, pero el archivo en sí no se eliminará. Para eliminar el archivo, usa el endpoint de eliminar archivo.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Actualizar atributos en un archivo de almacenamiento vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial al que pertenece el archivo. |
| file_id | path | Yes | string | El ID del archivo para actualizar los atributos. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. |
Yes |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recuperar contenido de archivo de almacenamiento vectorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupera el contenido analizado de un archivo de almacenamiento vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial. |
| file_id | path | Yes | string | El ID del archivo dentro del almacén vectorial. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Almacenamiento vectorial de búsqueda
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Busca en un almacén vectorial fragmentos relevantes basándote en un filtro de consulta y atributos de archivo.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial para buscar. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro de comparación o filtro compuesto | Un filtro para aplicar basado en atributos de archivo. | No | |
| max_num_results | integer | El número máximo de resultados que se pueden devolver. Esta cifra debería estar entre 1 y 50 inclusive. | No | 10 |
| query | Cadena o matriz | Una cadena de consulta para una búsqueda | Yes | |
| ranking_options | object | Opciones de clasificación para la búsqueda. | No | |
| └─ ranker | enum | Valores posibles: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Si reescribir la consulta en lenguaje natural para la búsqueda vectorial. | No | False |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Create - Archivo de almacenamiento vectorial por lotes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crea un lote de archivo de almacenamiento vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial para el cual crear un File Batch. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. |
No | |
| file_ids | array | Una lista de IDs de archivo que debería usar el almacén vectorial. Útil para herramientas que file_search pueden acceder a archivos. |
Yes |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Crea un lote de archivo de almacenamiento vectorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respuestas: Código de estado: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get - Vector Store File Batch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera un lote de archivo de almacenamiento vectorial.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial al que pertenece el lote de archivos. |
| batch_id | path | Yes | string | El ID del lote de archivos que se está recuperando. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera un lote de archivo de almacenamiento vectorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar - Archivo de almacenamiento vectorial por lotes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancela un lote de archivo de almacenamiento vectorial. Esto intenta cancelar el procesamiento de archivos en este lote lo antes posible.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacén vectorial al que pertenece el lote de archivos. |
| batch_id | path | Yes | string | El ID del lote de archivos para cancelar. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Cancela un lote de archivo de almacenamiento vectorial. Esto intenta cancelar el procesamiento de archivos en este lote lo antes posible.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista - Archivos por lotes de almacenamiento vectorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Devuelve una lista de archivos de almacenamiento vectorial en un lote.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | path | Yes | string | El ID del almacenamiento vectorial al que pertenecen los archivos. |
| batch_id | path | Yes | string | El ID del lote de archivos al que pertenecen los archivos. |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
Ordena por la created_at marca temporal de los objetos.
asc para orden ascendente y desc para orden descendente. |
| after | query | No | string | Un cursor para usar en la paginación.
after es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, terminando en obj_foo, tu llamada posterior puede incluir después=obj_foo para obtener la siguiente página de la lista. |
| before | query | No | string | Un cursor para usar en la paginación.
before es un ID de objeto que define tu lugar en la lista. Por ejemplo, si haces una solicitud de lista y recibes 100 objetos, empezando por obj_foo, tu siguiente llamada puede incluir antes=obj_foo para obtener la página anterior de la lista. |
| filter | query | No | string Valores posibles: in_progress, completed, failed, cancelled |
Filtra por estado del archivo. Uno de in_progress, completed, failed, cancelled. |
| api-version | query | Yes | string | api version |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Devuelve una lista de archivos de almacenamiento vectorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respuestas: Código de estado: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crea un token API efímero para su uso en aplicaciones del lado del cliente con la API Realtime. Puede configurarse con los mismos parámetros de sesión que el session.update evento cliente.
Responde con un objeto de sesión, además de una client_secret clave que contiene un token API efímero utilizable que puede usarse para autenticar a los clientes del navegador para la API en Tiempo Real.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | El formato del audio de entrada. Las opciones son pcm16, g711_ulaw, o g711_alaw.Para pcm16, el audio de entrada debe ser PCM de 16 bits a una frecuencia de muestreo de 24kHz, un solo canal (mono) y orden de bytes little-endian.Valores posibles: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuración para la reducción de ruido de audio de entrada. Esto se puede configurar para null que se apague.La reducción de ruido filtra el audio añadido al búfer de audio de entrada antes de que se envíe al VAD y al modelo. Filtrar el audio puede mejorar la precisión de la detección de VAD y giros (reduciendo falsos positivos) y el rendimiento del modelo al mejorar la percepción del audio de entrada. |
No | |
| └─ type | enum | Tipo de reducción de ruido.
near_field es para micrófonos de habla cercana como auriculares, es far_field para micrófonos de campo lejano como portátiles o de sala de conferencias.Valores posibles: near_field, far_field |
No | |
| input_audio_transcription | object | Configuración para transcripción de audio de entrada, por defecto está apagado y se puede configurar para null apagar una vez encendido. La transcripción de audio de entrada no es nativa del modelo, ya que el modelo consume audio directamente. La transcripción se ejecuta de forma asíncrona a través del extremo de Transcripciones y debe tratarse como una guía del contenido de audio de entrada en lugar de lo que el modelo escuchó exactamente. El cliente puede opcionalmente establecer el idioma y solicitar la transcripción, lo que ofrece orientación adicional al servicio de transcripción. |
No | |
| └─ language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 (por ejemplo en, ) mejora la precisión y la latencia. |
No | |
| └─ model | string | El modelo a usar para transcripción, las opciones actuales son gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, y whisper-1. |
No | |
| └─ prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. Para whisper-1, el prompt es una lista de palabras clave.Para los gpt-4o-transcribe modelos, el prompt es una cadena de texto libre, por ejemplo "espera palabras relacionadas con la tecnología". |
No | |
| instructions | string | Las instrucciones predeterminadas del sistema (es decir, el mensaje del sistema) precedían a las llamadas de modelo. Este campo permite al cliente guiar el modelo en las respuestas deseadas. El modelo puede ser instruido sobre el contenido y formato de las respuestas (por ejemplo, "sé extremadamente conciso", "actúa amigable", "aquí tienes ejemplos de buenas respuestas") y sobre el comportamiento auditivo (por ejemplo, "habla rápido", "inyecta emoción en tu voz", "ríe con frecuencia"). No se garantiza que el modelo siga las instrucciones, pero proporcionan orientación sobre el comportamiento deseado. Ten en cuenta que el servidor establece instrucciones predeterminadas que se usarán si este campo no está activado y son visibles en el session.created evento al inicio de la sesión. |
No | |
| max_response_output_tokens | entero o cadena | Número máximo de tokens de salida para una respuesta de un solo asistente, incluyendo llamadas a herramientas. Proporcionar un entero entre 1 y 4096 para limitar los tokens de salida, o inf para el máximo de tokens disponibles para un modelo dado. Por defecto es inf. |
No | |
| modalities | El conjunto de modalidades con las que el modelo puede responder. Para desactivar el audio, pon esto en ["texto"]. |
No | ||
| model | string | El nombre del despliegue utilizado para esta sesión. |
No | |
| output_audio_format | enum | El formato del audio de salida. Las opciones son pcm16, g711_ulaw, o g711_alaw.Para pcm16, el audio de salida se muestrea a una tasa de 24kHz.Valores posibles: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | La temperatura de muestreo para el modelo está limitada a [0,6, 1,2]. Para modelos de audio, se recomienda encarecidamente una temperatura de 0,8 para el mejor rendimiento. |
No | 0.8 |
| tool_choice | string | Cómo elige el modelo las herramientas. Las opciones son auto, none, required, o especificar una función. |
No | auto |
| tools | array | Herramientas (funciones) disponibles para el modelo. | No | |
| turn_detection | object | Configuración para detección de giros, VAD de servidor ether o VAD semántico. Esto puede configurarse para null desactivarse, en cuyo caso el cliente debe activar manualmente la respuesta del modelo.El VAD del servidor significa que el modelo detectará el inicio y el final del habla basándose en el volumen del audio y responderá al final del habla del usuario. El VAD semántico es más avanzado y utiliza un modelo de detección de giro (junto con el VAD) para estimar semánticamente si el usuario ha terminado de hablar, y luego establece dinámicamente un tiempo de espera basado en esta probabilidad. Por ejemplo, si el audio del usuario se detiene con uhhm, el modelo puntuará una baja probabilidad de finalización del turno y esperará más tiempo a que el usuario continúe hablando. Esto puede ser útil para conversaciones más naturales, pero puede tener una latencia mayor. |
No | |
| └─ create_response | boolean | Si generar o no automáticamente una respuesta cuando ocurre un evento de parada VAD. |
No | True |
| └─ eagerness | enum | Se usa solo para el semantic_vad modo. El entusiasmo del modelo por responder.
low Esperará más tiempo a que el usuario siga hablando, high responderá más rápido.
auto es el valor predeterminado y es equivalente a medium.Valores posibles: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Si interrumpir automáticamente cualquier respuesta en curso con salida a la conversación predeterminada (es decir, conversation de auto) cuando ocurre un evento de inicio de VAD. |
No | True |
| └─ prefix_padding_ms | integer | Se usa solo para el server_vad modo. Cantidad de audio a incluir antes de que el VAD detectara el habla (en milisegundos). Por defecto es 300ms. |
No | |
| └─ silence_duration_ms | integer | Se usa solo para el server_vad modo. Duración del silencio para detectar la detención del habla (en milisegundos). Por defecto es 500ms. Con valores más cortos, el modelo responderá más rápido, pero puede saltar en pausas cortas del usuario. |
No | |
| └─ threshold | number | Se usa solo para el server_vad modo. El umbral de activación para VAD (0.0 a 1.0), por defecto es 0.5. Un umbral más alto requerirá un audio más alto para activar el modelo, y por tanto podría rendir mejor en entornos ruidosos. |
No | |
| └─ type | enum | Tipo de detección de giro. Valores posibles: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Código de estado: 200
Descripción: Sesión creada con éxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Create - Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crea un token API efímero para su uso en aplicaciones del lado del cliente con la API en tiempo real, específicamente para transcripciones en tiempo real.
Puede configurarse con los mismos parámetros de sesión que el transcription_session.update evento cliente.
Responde con un objeto de sesión, además de una client_secret clave que contiene un token API efímero utilizable que puede usarse para autenticar a los clientes del navegador para la API en Tiempo Real.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | El conjunto de elementos a incluir en la transcripción. Los artículos disponibles actualmente son: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | El formato del audio de entrada. Las opciones son pcm16, g711_ulaw, o g711_alaw.Para pcm16, el audio de entrada debe ser PCM de 16 bits a una frecuencia de muestreo de 24kHz, un solo canal (mono) y orden de bytes little-endian.Valores posibles: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuración para la reducción de ruido de audio de entrada. Esto se puede configurar para null que se apague.La reducción de ruido filtra el audio añadido al búfer de audio de entrada antes de que se envíe al VAD y al modelo. Filtrar el audio puede mejorar la precisión de la detección de VAD y giros (reduciendo falsos positivos) y el rendimiento del modelo al mejorar la percepción del audio de entrada. |
No | |
| └─ type | enum | Tipo de reducción de ruido.
near_field es para micrófonos de habla cercana como auriculares, es far_field para micrófonos de campo lejano como portátiles o de sala de conferencias.Valores posibles: near_field, far_field |
No | |
| input_audio_transcription | object | Configuración para transcripción de audio de entrada. El cliente puede opcionalmente establecer el idioma y solicitar la transcripción, lo que ofrece orientación adicional al servicio de transcripción. |
No | |
| └─ language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 (por ejemplo en, ) mejora la precisión y la latencia. |
No | |
| └─ model | enum | El modelo a usar para la transcripción, las opciones actuales son gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, y whisper-1.Valores posibles: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. Para whisper-1, el prompt es una lista de palabras clave.Para los gpt-4o-transcribe modelos, el prompt es una cadena de texto libre, por ejemplo "espera palabras relacionadas con la tecnología". |
No | |
| modalities | El conjunto de modalidades con las que el modelo puede responder. Para desactivar el audio, pon esto en ["texto"]. |
No | ||
| turn_detection | object | Configuración para detección de giros, VAD de servidor ether o VAD semántico. Esto puede configurarse para null desactivarse, en cuyo caso el cliente debe activar manualmente la respuesta del modelo.El VAD del servidor significa que el modelo detectará el inicio y el final del habla basándose en el volumen del audio y responderá al final del habla del usuario. El VAD semántico es más avanzado y utiliza un modelo de detección de giro (junto con el VAD) para estimar semánticamente si el usuario ha terminado de hablar, y luego establece dinámicamente un tiempo de espera basado en esta probabilidad. Por ejemplo, si el audio del usuario se detiene con uhhm, el modelo puntuará una baja probabilidad de finalización del turno y esperará más tiempo a que el usuario continúe hablando. Esto puede ser útil para conversaciones más naturales, pero puede tener una latencia mayor. |
No | |
| └─ create_response | boolean | Si generar o no automáticamente una respuesta cuando ocurre un evento de parada VAD. No disponible para sesiones de transcripción. |
No | True |
| └─ eagerness | enum | Se usa solo para el semantic_vad modo. El entusiasmo del modelo por responder.
low Esperará más tiempo a que el usuario siga hablando, high responderá más rápido.
auto es el valor predeterminado y es equivalente a medium.Valores posibles: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Si interrumpir automáticamente cualquier respuesta en curso con salida a la conversación predeterminada (es decir, conversation de auto) cuando ocurre un evento de inicio de VAD. No disponible para sesiones de transcripción. |
No | True |
| └─ prefix_padding_ms | integer | Se usa solo para el server_vad modo. Cantidad de audio a incluir antes de que el VAD detectara el habla (en milisegundos). Por defecto es 300ms. |
No | |
| └─ silence_duration_ms | integer | Se usa solo para el server_vad modo. Duración del silencio para detectar la detención del habla (en milisegundos). Por defecto es 500ms. Con valores más cortos, el modelo responderá más rápido, pero puede saltar en pausas cortas del usuario. |
No | |
| └─ threshold | number | Se usa solo para el server_vad modo. El umbral de activación para VAD (0.0 a 1.0), por defecto es 0.5. Un umbral más alto requerirá un audio más alto para activar el modelo, y por tanto podría rendir mejor en entornos ruidosos. |
No | |
| └─ type | enum | Tipo de detección de giro. Valores posibles: server_vad, semantic_vad |
No |
Responses
Código de estado: 200
Descripción: Sesión creada con éxito.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Crea una respuesta modelo.
Request Body
Content-Type: application/json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | No | ||
| input | Cadena o matriz | Model inputs | Yes | |
| instructions | string | Inserta un mensaje del sistema (o del desarrollador) como el primer elemento en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se trasladarán a la siguiente respuesta. Esto facilita intercambiar mensajes del sistema (o del desarrollador) en nuevas respuestas. |
No | |
| max_output_tokens | integer | Un límite superior para el número de tokens que se pueden generar para una respuesta, incluyendo tokens de salida visibles y estado de conversación. |
No | |
| parallel_tool_calls | boolean | Si permitir que el modelo ejecute llamadas a herramientas en paralelo. |
No | True |
| previous_response_id | string | El ID único de la respuesta anterior al modelo. Usa esto para crear conversaciones de varios turnos. Aprende más sobre el estado de conversación. |
No | |
| reasoning | Reasoning | Opciones de configuración para modelos de razonamiento. | No | |
| store | boolean | Si almacenar la respuesta del modelo generado para su posterior recuperación vía API. |
No | True |
| stream | boolean | Si se configura como verdadero, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan usando eventos enviados por el servidor. Consulta la sección de Streaming más abajo para más información. |
No | False |
| text | object | Opciones de configuración para una respuesta de texto desde el modelo. Puede ser texto plano o datos JSON estructurados. Learn more: - Entradas y salidas de texto - Salidas estructuradas |
No | |
| └─ format | TextResponseFormatConfiguration | Un objeto que especifica el formato que el modelo debe generar. La configuración { "type": "json_schema" } habilita Structured Outputs, que asegura que el modelo coincida con el esquema JSON que has proporcionado.El formato por defecto es { "type": "text" } sin opciones adicionales.No recomendado para gpt-4o y modelos más recientes: Configurar para { "type": "json_object" } activa el modo JSON más antiguo, que asegura que el mensaje generado por el modelo sea JSON válido. Se prefiere usar json_schema para modelos que lo soporten. |
No | |
| tool_choice | ElecciónDeHerramientasOpciones o TiposElecciónDeHerramienta o FunciónDeElecciónDeHerramienta | Cómo debe el modelo seleccionar qué herramienta (o herramientas) usar al generar una respuesta. Consulta el tools parámetro para ver cómo especificar qué herramientas puede llamar el modelo. |
No | |
| tools | array | Una variedad de herramientas que el modelo puede invocar mientras genera una respuesta. Puedes especificar qué herramienta usar configurando el tool_choice parámetro.Las dos categorías de herramientas que puedes proporcionar al modelo son: - Herramientas integradas: Herramientas proporcionadas por OpenAI que amplían el model's capabilities |
No | |
| truncation | enum | La estrategia de truncamiento a usar para la respuesta del modelo. - auto: Si el contexto de esta respuesta y de las anteriores supera el tamaño de la ventana contextual del modelo, el modelo truncará la respuesta para ajustarse a la ventana contextual omitiendo elementos de entrada en medio de la conversación. - disabled (por defecto): Si una respuesta del modelo supera el tamaño de la ventana de contexto para un modelo, la solicitud fallará con un error de 400.Valores posibles: auto, disabled |
No |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respuestas - elementos de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera una respuesta del modelo con el ID dado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | El ID de la respuesta para recuperar. |
| include | query | No | array | Campos adicionales para incluir en la respuesta. Consulta el include parámetro para la creación de respuestas arriba para más información. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Elimina una respuesta de modelo con el ID dado.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | El ID de la respuesta para eliminar. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
Código de estado: 404
Descripción: No encontrado
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Código de estado: por defecto
Descripción: Servicio no disponible
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respuestas - lista de ítems de respuesta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Devuelve una lista de elementos de entrada para una respuesta dada.
URI Parameters
| Name | In | Required | Type | Description |
|---|---|---|---|---|
| endpoint | path | Yes | string url | Compatibles Azure endpoints OpenAI (protocolo y nombre de host, por ejemplo: https://aoairesource.openai.azure.com). Sustituye "aoairesource" por el nombre de tu recurso de Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | path | Yes | string | El ID de la respuesta para recuperar los elementos de entrada para. |
| limit | query | No | integer | Un límite en el número de objetos que se deben devolver. El límite puede oscilar entre 1 y 100, y el valor por defecto es 20. |
| order | query | No | string Valores posibles: asc, desc |
El orden para devolver los elementos de entrada. El valor por defecto es asc.- asc: Devuelva los elementos de entrada en orden ascendente.- desc: Devuelva los elementos de entrada en orden descendente. |
| after | query | No | string | Un ID de elemento para listar los elementos después, usado en la paginación. |
| before | query | No | string | Un ID de elemento para listar elementos anteriores, usado en la paginación. |
Request Header
Utiliza autenticación basada en tokens o clave API. Se recomienda autenticar con autenticación basada en tokens y es más seguro.
| Name | Required | Type | Description |
|---|---|---|---|
| Authorization | True | string |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para generar un token de autenticación usando CLI de Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeAlcance: https://ai.azure.com/.default |
| api-key | True | string | Proporciona aquí la clave API de Azure OpenAI |
Responses
Código de estado: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | error | No |
errorBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | No | ||
| message | string | No |
error
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Error interno con detalles adicionales. | No | |
| param | string | No | ||
| type | string | No |
innerError
Error interno con detalles adicionales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
| content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación. | No |
innerErrorCode
Códigos de error para el objeto de error interno.
| Property | Value |
|---|---|
| Description | Códigos de error para el objeto de error interno. |
| Type | string |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| error | dalleError | No |
dalleError
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Error interno con detalles adicionales. | No | |
| param | string | No | ||
| type | string | No |
dalleInnerError
Error interno con detalles adicionales.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | innerErrorCode | Códigos de error para el objeto de error interno. | No | |
| content_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación. | No | |
| revised_prompt | string | El prompt que se usó para generar la imagen, si hubo alguna revisión del prompt. | No |
contentFilterCompletionTextSpan
Describe un espacio dentro del texto de finalización generado. El desplazamiento 0 es el primer punto de código UTF32 del texto de completación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | integer | Desplazamiento del primer punto de código UTF32 que está excluido del tramo. Este campo es siempre igual a completion_start_offset para los espacios vacíos. Este campo siempre es mayor que completion_start_offset para vanos no vacíos. | Yes | |
| completion_start_offset | integer | Desplazamiento del punto de código UTF32 que inicia el tramo. | Yes |
contentFilterResultBase
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | string | No |
contentFilterDetectedResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| citation | object | No | ||
| └─ URL | string | No | ||
| └─ license | string | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No |
contentFilterIdResult
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | string | No |
contentFilterResultsBase
Información sobre los resultados del filtrado de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtrado de contenido con un detalle de los identificadores de filtro de contenido para los segmentos filtrados. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtrado de contenido con un detalle de los identificadores de filtro de contenido para los segmentos filtrados. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre mensajes de texto de terceros y palabrotas, si se han detectado y si han sido filtrados o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtrado de contenido con un detalle de los identificadores de filtro de contenido para los segmentos filtrados. | No | |
| error | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Resultados de filtrado de contenido con un detalle de los identificadores de filtro de contenido para los segmentos filtrados.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| details | array | No | ||
| filtered | boolean | Yes |
promptFilterResult
Filtrado de contenido resulta para un único prompt en la solicitud.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación. | No | |
| prompt_index | integer | No |
promptFilterResults
Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes.
No hay propiedades definidas para este componente.
dalleContentFilterResults
Información sobre los resultados del filtrado de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtrado de contenido con un detalle de los identificadores de filtro de contenido para los segmentos filtrados. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. | No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto json que mapea tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto varía según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. | No | |
| max_completion_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. | No | |
| max_tokens | integer | El número máximo de tokens permitido para la respuesta generada. Por defecto, el número de tokens que el modelo puede devolver será (4096 - tokens de prompt). Esto no es compatible con los modelos de la serie O1. | No | 4096 |
| metadata | object | Etiquetas y valores definidos por el desarrollador usados para filtrar completaciones en el panel de completaciones almacenadas. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. | No | 0 |
| stop | Cadena o matriz | Hasta 4 secuencias donde la API deja de generar más tokens. | No | |
| store | boolean | Si almacenar o no la salida de esta solicitud de finalización del chat para su uso en nuestros productos de destilación o evaluación de modelos. | No | |
| stream | boolean | Si se activa, se envían deltas parciales de mensaje, como en ChatGPT. Los tokens se envían como eventos solo de datos enviados por el servidor a medida que están disponibles, y el flujo termina con un data: [DONE] mensaje. |
No | False |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a Azure OpenAI a monitorizar y detectar abusos. | No |
createCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| best_of | integer | Genera best_of completaciones en el lado del servidor y devuelve el "mejor" (el que tiene la mayor probabilidad logarítmica por token). Los resultados no se pueden transmitir en streaming.Cuando se usa con n, best_of controla el número de completaciones candidatas y n especifica cuántas devolver.
best_of debe ser mayor que n.Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| echo | boolean | Haz eco del prompt además de la finalización |
No | False |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador GPT) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto varía según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. Por ejemplo, puedes pasar {"50256": -100} para evitar que se genere el <token |endoftext> |. |
No | None |
| logprobs | integer | Incluye las probabilidades logarítmicas de los logprobs tokens de salida más probables, así como los tokens elegidos. Por ejemplo, si logprobs es 5, la API devolverá una lista de los 5 tokens más probables. La API siempre devolverá el logprob del token muestreado, por lo que puede haber hasta logprobs+1 hasta elementos en la respuesta.El valor máximo para logprobs es 5. |
No | None |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización. El recuento de tokens de tu prompt plus max_tokens no puede superar la longitud contextual del modelo. |
No | 16 |
| n | integer | Cuántas finalizaciones generar para cada prompt. Nota: Como este parámetro genera muchas completaciones, puede consumir rápidamente tu cuota de tokens. Úsalo con cuidado y asegúrate de tener configuraciones razonables para max_tokens y stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| prompt | Cadena o matriz | El(los) prompt(s) para generar completaciones para , codificado como una cadena, array de cadenas, array de tokens o array de tokens. Ten en cuenta que <|endoftext|> es el separador de documentos que el modelo ve durante el entrenamiento, así que si no se especifica un prompt, el modelo se generará como si fuera desde el principio de un nuevo documento. |
Yes | |
| seed | integer | Si se especifica, nuestro sistema hace el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| stop | Cadena o matriz | Hasta 4 secuencias donde la API deja de generar más tokens. El texto devuelto no contendrá la secuencia de paradas. |
No | |
| stream | boolean | Si se debe refluir en un progreso parcial. Si se activa, los tokens se envían solo como eventos enviados por el servidor a medida que están disponibles, y el flujo termina con un data: [DONE] mensaje.
Ejemplo Python código. |
No | False |
| suffix | string | El sufijo que aparece después de completar el texto insertado. Este parámetro solo es compatible con gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No |
createCompletionResponse
Representa una respuesta de completación de la API. Nota: tanto los objetos de respuesta transmitidos como los no transmitidos comparten la misma forma (a diferencia del endpoint del chat).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | La lista de opciones de finalización que el modelo generó para el prompt de entrada. | Yes | |
| created | integer | La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización. | Yes | |
| id | string | Un identificador único para la finalización. | Yes | |
| model | string | El modelo utilizado para la finalización. | Yes | |
| object | enum | El tipo de objeto, que siempre es "text_completion" Valores posibles: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes. | No | |
| system_fingerprint | string | Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo. Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo. |
No | |
| usage | completionUsage | Estadísticas de uso para la solicitud de finalización. | No |
createChatCompletionRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Parámetros para la salida de audio. Es necesario cuando se solicita la salida de audio con modalities: ["audio"]. |
No | |
| └─ format | enum | Especifica el formato de audio de salida. Debe ser uno de wav, mp3, flac, opus, o pcm16. Valores posibles: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enum | Especifica el tipo de voz. Las voces apoyadas son alloy, echo, fable, onyx, nova, y shimmer.Valores posibles: alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | array | Las entradas de configuración para las extensiones de chat de Azure OpenAI que las utilizan. Esta especificación adicional solo es compatible con Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens en función de su frecuencia existente en el texto hasta ahora, disminuyendo la probabilidad de que el modelo repita la misma línea literalmente. |
No | 0 |
| function_call | cadena o chatCompletionFunctionCallOption | Obsoleto en favor de tool_choice.Controla qué función (si la llama) el modelo. none significa que el modelo no llamará a una función y en su lugar genera un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una función.Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.none es el valor predeterminado cuando no hay funciones presentes.
auto es el valor predeterminado si hay funciones presentes. |
No | |
| functions | array | Obsoleto en favor de tools.Una lista de funciones para las que el modelo puede generar entradas JSON. |
No | |
| logit_bias | object | Modifica la probabilidad de que los tokens especificados aparezcan en la completación. Acepta un objeto JSON que mapea los tokens (especificados por su ID de token en el tokenizador) a un valor de sesgo asociado de -100 a 100. Matemáticamente, el sesgo se añade a los logits generados por el modelo antes del muestreo. El efecto exacto varía según el modelo, pero los valores entre -1 y 1 deberían disminuir o aumentar la probabilidad de selección; valores como -100 o 100 deberían resultar en un baneo o selección exclusiva del token correspondiente. |
No | None |
| logprobs | boolean | Si devolver las probabilidades logarítmicas de los tokens de salida o no. Si es cierto, devuelve las probabilidades logarítmicas de cada token de salida devuelto en el content de message. |
No | False |
| max_completion_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una finalización, incluyendo tokens de salida visibles y tokens de razonamiento. | No | |
| max_tokens | integer | El número máximo de tokens que se pueden generar en la finalización del chat. La longitud total de los tokens de entrada y los tokens generados está limitada por la longitud del contexto del modelo. |
No | |
| messages | array | Una lista de mensajes que componen la conversación hasta ahora. Ejemplo Python código. | Yes | |
| metadata | object | Etiquetas y valores definidos por el desarrollador usados para filtrar completaciones en el panel de completaciones almacenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de salida que desearías que el modelo generara para esta petición. La mayoría de los modelos son capaces de generar texto, que es el valor por defecto: ["text"]El gpt-4o-audio-preview modelo también puede usarse para generar audio. Para solicitar que este modelo genere tanto respuestas de texto como de audio, puedes utilizar:["text", "audio"] |
No | |
| n | integer | Cuántas opciones de finalización de chat generar para cada mensaje de entrada. Ten en cuenta que se te cobrará en función del número de tokens generados en todas las opciones. Mantente n en la medida 1 de minimizar costes. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| prediction | PredictionContent | Configuración para una Salida Predicha, que puede mejorar considerablemente los tiempos de respuesta cuando gran parte de la respuesta del modelo se conoce de antemano. Esto es más común cuando regeneras un archivo con solo cambios menores en la mayoría del contenido. | No | |
| presence_penalty | number | Número entre -2.0 y 2.0. Los valores positivos penalizan a los nuevos tokens según si aparecen en el texto hasta ahora, aumentando la probabilidad del modelo de hablar sobre nuevos temas. |
No | 0 |
| reasoning_effort | enum |
Solo modelos O1 Restringe el esfuerzo en el razonamiento para modelos de razonamiento. Los valores actualmente soportados son low, medium, y high. Reducir el esfuerzo de razonamiento puede resultar en respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta.Valores posibles: low, medium, high |
No | |
| response_format | ResponseFormatoTexto o RespuestaFormatoJsonObjeto o RespuestaFormatoJsonSchema | Un objeto que especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4o mini, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo más nuevos que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que garantizan que el modelo coincide con el esquema JSON que has proporcionado.Configurar para { "type": "json_object" } activa el modo JSON, que garantiza que el mensaje generado por el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| seed | integer | Esta función está en Beta. Si se especifica, nuestro sistema hace el mejor esfuerzo por muestrear determinísticamente, de modo que las solicitudes repetidas con los mismos seed parámetros y devuelvan el mismo resultado.El determinismo no está garantizado, y deberías consultar el system_fingerprint parámetro de respuesta para monitorizar los cambios en el backend. |
No | |
| stop | Cadena o matriz | Hasta 4 secuencias donde la API deja de generar más tokens. |
No | |
| store | boolean | Si almacenar o no la salida de esta solicitud de finalización del chat para su uso en nuestros productos de destilación o evaluación de modelos. | No | |
| stream | boolean | Si se activa, se envían deltas parciales de mensaje, como en ChatGPT. Los tokens se envían como eventos solo de datos enviados por el servidor a medida que están disponibles, y el flujo termina con un data: [DONE] mensaje.
Ejemplo Python código. |
No | False |
| stream_options | chatCompletionStreamOptions | Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si hay herramientas presentes. |
No | |
| tools | array | Una lista de herramientas que el modelo puede llamar. Actualmente, solo se soportan funciones como herramienta. Úsalo para proporcionar una lista de funciones para las que el modelo puede generar entradas JSON. Se soportan un máximo de 128 funciones. |
No | |
| top_logprobs | integer | Un entero entre 0 y 20 que especifica el número de tokens más probables de devolver en cada posición de token, cada uno con una probabilidad logarítmica asociada.
logprobs debe establecerse en true si se usa este parámetro. |
No | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. |
No | |
| user_security_context | userSecurityContext | El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación de IA y el usuario final que interactúa con la aplicación de IA. Estos campos ayudan a tus equipos de operaciones de seguridad a investigar y mitigar incidentes de seguridad proporcionando un enfoque integral para proteger tus aplicaciones de IA. Más información sobre cómo proteger las aplicaciones de IA usando Microsoft Defender para la nube. | No |
userSecurityContext
El contexto de seguridad del usuario contiene varios parámetros que describen la propia aplicación de IA y el usuario final que interactúa con la aplicación de IA. Estos campos ayudan a tus equipos de operaciones de seguridad a investigar y mitigar incidentes de seguridad proporcionando un enfoque integral para proteger tus aplicaciones de IA. Más información sobre cómo proteger las aplicaciones de IA usando Microsoft Defender para la nube.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| application_name | string | El nombre de la solicitud. No se debe incluir información personal sensible en este campo. | No | |
| end_user_id | string | Este identificador es el ID de objeto de usuario Microsoft Entra ID (anteriormente Azure Active Directory), utilizado para autenticar a los usuarios finales dentro de la aplicación de IA generativa. No se debe incluir información personal sensible en este campo. | No | |
| end_user_tenant_id | string | El ID de tenant de Microsoft 365 al que pertenece el usuario final. Es necesario cuando la aplicación de IA generativa es multiinquilino. | No | |
| source_ip | string | Captura la dirección IP del cliente original, aceptando tanto los formatos IPv4 como IPv6. | No |
chatCompletionFunctions
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. | Yes | |
| parameters | FunctionParameters | Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON.
Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato. Omitir parameters define una función con una lista de parámetros vacía. |
No |
chatCompletionFunctionCallOption
Especificar una función particular mediante {"name": "my_function"} obliga al modelo a llamar a esa función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | El nombre de la función a llamar. | Yes |
chatCompletionFunctionParameters
Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato.
No hay propiedades definidas para este componente.
chatCompletionRequestMessage
Este componente puede ser uno de los siguientes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instrucciones proporcionadas por el desarrollador que el modelo debe seguir, independientemente de los mensajes enviados por el usuario.
Con los modelos O1 y más recientes, developer los mensajes reemplazan a los anteriores system .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje del desarrollador. | Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No | |
| role | enum | El papel del autor de los mensajes, en este caso developer.Valores posibles: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje del sistema. | Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No | |
| role | enum | El papel del autor de los mensajes, en este caso system.Valores posibles: system |
Yes |
chatCompletionRequestUserMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje de usuario. |
Yes | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No | |
| role | enum | El papel del autor de los mensajes, en este caso user.Valores posibles: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje de asistente. Obligatorio a menos que tool_calls se especifique o function_call se especifique. |
No | |
| function_call | object | Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. |
No | |
| └─ arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede alucinar parámetros no definidos por tu esquema de funciones. Valida los argumentos de tu código antes de llamar a tu función. | No | |
| └─ name | string | El nombre de la función a llamar. | No | |
| name | string | Un nombre opcional para el participante. Proporciona la información del modelo para diferenciar entre participantes del mismo rol. | No | |
| refusal | string | El mensaje de rechazo del asistente. | No | |
| role | enum | El papel del autor de los mensajes, en este caso assistant.Valores posibles: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones. | No |
chatCompletionRequestToolMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido del mensaje de herramienta. | Yes | |
| role | enum | El papel del autor de los mensajes, en este caso tool.Valores posibles: tool |
Yes | |
| tool_call_id | string | Llamada de herramienta a la que este mensaje está respondiendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | El contenido del mensaje de función. | Yes | |
| name | string | El nombre de la función a llamar. | Yes | |
| role | enum | El papel del autor de los mensajes, en este caso function.Valores posibles: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestSystemMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestUserMessageContentPart
Este componente puede ser uno de los siguientes:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestToolMessageContentPart
Este componente puede ser uno de los siguientes:
chatCompletionRequestMessageContentPartText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | El contenido del texto. | Yes | |
| type | enum | La parte del tipo de contenido. Valores posibles: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio | object | Yes | ||
| └─ data | string | Datos de audio codificados en Base64. | No | |
| └─ format | enum | El formato de los datos de audio codificados. Actualmente soporta "wav" y "mp3". Valores posibles: wav, mp3 |
No | |
| type | enum | La parte del tipo de contenido. Siempre input_audio.Valores posibles: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_url | object | Yes | ||
| └─ detail | enum | Especifica el nivel de detalle de la imagen. Aprende más en la guía de Visión. Valores posibles: auto, low, high |
No | |
| └─ url | string | O bien una URL de la imagen o los datos codificados en base64. | No | |
| type | enum | La parte del tipo de contenido. Valores posibles: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | El mensaje de rechazo generado por el modelo. | Yes | |
| type | enum | La parte del tipo de contenido. Valores posibles: refusal |
Yes |
azureChatExtensionConfiguration
Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.
###Discriminator for azureChatExtensionConfiguration
Este componente utiliza la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
azureChatExtensionType
Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI.
| Property | Value |
|---|---|
| Description | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
| Type | string |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Una representación específica de opciones configurables para Azure Search cuando se usa como una extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parámetros para Azure Search cuando se usan como extensión de chat de Azure OpenAI. | No | |
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Parámetros para Azure Search cuando se usan como extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si se especifica como verdadero, el sistema permitirá usar resultados parciales de búsqueda y la solicitud falla si todas las consultas fallan. Si no se especifica o se especifica como falso, la solicitud fallará si falla alguna consulta de búsqueda. | No | False |
| authentication | onTuDatosApiClaveOpciones de Autenticación o onTuDatosSystemAsignadoGestionadoIdentidadOpciones de Autenticación o onTuDatosUsuarioAsignadoOpcionesGestionadasIdentidadAutenticaciónOpciones o onTusDataAccesoTokenOpciones de Autenticación | Yes | ||
| embedding_dependency | enTuDatosEndpointVectorizaciónFuente o enTuDatosNombreVectorizaciónFuente o enTuDatosIntegradosVectorizaciónFuente | No | ||
| endpoint | string | La ruta final absoluta para que el recurso de Azure Search la utilice. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de Azure Search configurado. | No | |
| filter | string | Search filter. | No | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| include_contexts | array | Las propiedades incluidas del contexto de salida. Si no se especifica, el valor por defecto es citations y intent. |
No | |
| index_name | string | El nombre del índice a usar está disponible en el recurso de búsqueda de Azure referenciado. | Yes | |
| max_search_queries | integer | El número máximo de consultas reescritas debe enviarse al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas a enviar. | No | |
| query_type | azureSearchQueryType | El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure. | No | |
| semantic_configuration | string | La configuración semántica adicional para la consulta. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No |
azureSearchIndexFieldMappingOptions
Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de Azure Search configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | No | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| image_vector_fields | array | Los nombres de los campos que representan datos vectoriales de imagen. | No | |
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No | |
| vector_fields | array | Los nombres de los campos que representan datos vectoriales. | No |
azureSearchQueryType
El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure.
| Property | Value |
|---|---|
| Description | El tipo de consulta de recuperación de Azure Search que debe ejecutarse al usarla como extensión de chat de OpenAI en Azure. |
| Type | string |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Una representación específica de opciones configurables para Azure Cosmos DB al usarlo como extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para MongoDB vCore. | No | |
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar Azure Cosmos DB para MongoDB vCore.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si se especifica como verdadero, el sistema permitirá usar resultados parciales de búsqueda y la solicitud falla si todas las consultas fallan. Si no se especifica o se especifica como falso, la solicitud fallará si falla alguna consulta de búsqueda. | No | False |
| authentication | onYourDataConnectionStringAuthenticationOptions | Las opciones de autenticación para Azure OpenAI On Your Data al usar una cadena de conexión. | Yes | |
| container_name | string | El nombre del contenedor de recursos de Azure Cosmos DB. | Yes | |
| database_name | string | El nombre de la base de datos MongoDB vCore para usar con Azure Cosmos DB. | Yes | |
| embedding_dependency | onTusDataDataEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Configuraciones opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso configurado de Azure Cosmos DB. | Yes | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| include_contexts | array | Las propiedades incluidas del contexto de salida. Si no se especifica, el valor por defecto es citations y intent. |
No | |
| index_name | string | El nombre del índice MongoDB vCore para usar con Azure Cosmos DB. | Yes | |
| max_search_queries | integer | El número máximo de consultas reescritas debe enviarse al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas a enviar. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No |
azureCosmosDBFieldMappingOptions
Configuraciones opcionales para controlar cómo se procesan los campos cuando se utiliza un recurso configurado de Azure Cosmos DB.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | Yes | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No | |
| vector_fields | array | Los nombres de los campos que representan datos vectoriales. | Yes |
elasticsearchChatExtensionConfiguration
Una representación específica de opciones configurables para Elasticsearch cuando se usa como una extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parámetros a usar al configurar Elasticsearch® como una extensión de chat de OpenAI en Azure. | No | |
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Parámetros a usar al configurar Elasticsearch® como una extensión de chat de OpenAI en Azure.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si se especifica como verdadero, el sistema permitirá usar resultados parciales de búsqueda y la solicitud falla si todas las consultas fallan. Si no se especifica o se especifica como falso, la solicitud fallará si falla alguna consulta de búsqueda. | No | False |
| authentication | onYourDataKeyAndKeyIdAuthenticationOptions o onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onTuDatosEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente o enTuTModeloIdVectorizaciónFuente | No | ||
| endpoint | string | El punto final de Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Ajustes opcionales para controlar cómo se procesan los campos al usar un recurso Elasticsearch® configurado. | No | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| include_contexts | array | Las propiedades incluidas del contexto de salida. Si no se especifica, el valor por defecto es citations y intent. |
No | |
| index_name | string | El nombre del índice de Elasticsearch®. | Yes | |
| max_search_queries | integer | El número máximo de consultas reescritas debe enviarse al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas a enviar. | No | |
| query_type | elasticsearchQueryType | El tipo de consulta de recuperación de Elasticsearch® que debe ejecutarse al usarla como extensión de chat de Azure OpenAI. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No |
elasticsearchIndexFieldMappingOptions
Ajustes opcionales para controlar cómo se procesan los campos al usar un recurso Elasticsearch® configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | No | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No | |
| vector_fields | array | Los nombres de los campos que representan datos vectoriales. | No |
elasticsearchQueryType
El tipo de consulta de recuperación de Elasticsearch® que debe ejecutarse al usarla como extensión de chat de Azure OpenAI.
| Property | Value |
|---|---|
| Description | El tipo de consulta de recuperación de Elasticsearch® que debe ejecutarse al usarla como extensión de chat de Azure OpenAI. |
| Type | string |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Una representación específica de opciones configurables para Mongo DB al usarla como extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar la base de datos Mongo. | No | |
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Parámetros a usar al configurar las extensiones de chat de Azure OpenAI On Your Data al usar la base de datos Mongo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si se especifica como verdadero, el sistema permitirá usar resultados parciales de búsqueda y la solicitud falla si todas las consultas fallan. Si no se especifica o se especifica como falso, la solicitud fallará si falla alguna consulta de búsqueda. | No | False |
| app_name | string | El nombre de la Aplicación de la Base de Datos Mongo. | Yes | |
| authentication | onYourDataUsernameAndPasswordAuthenticationOptions | Las opciones de autenticación para Azure OpenAI On Your Data al usar un nombre de usuario y una contraseña. | Yes | |
| collection_name | string | El nombre de la Colección Mongo DB. | Yes | |
| database_name | string | El nombre de la base de datos Mongo. | Yes | |
| embedding_dependency | onTusDataDataEndpointVectorizaciónFuente o onTuDataDesdespliegueNombreVectorizaciónFuente | Yes | ||
| endpoint | string | El nombre del endpoint del clúster de la base de datos Mongo. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de base de datos Mongo configurado. | Yes | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| include_contexts | array | Las propiedades incluidas del contexto de salida. Si no se especifica, el valor por defecto es citations y intent. |
No | |
| index_name | string | El nombre del índice de la base de datos Mongo. | Yes | |
| max_search_queries | integer | El número máximo de consultas reescritas debe enviarse al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas a enviar. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No |
mongoDBFieldMappingOptions
Opciones para controlar cómo se procesan los campos cuando se utiliza un recurso de base de datos Mongo configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | Yes | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No | |
| vector_fields | array | Los nombres de los campos que representan datos vectoriales. | Yes |
pineconeChatExtensionConfiguration
Una representación específica de opciones configurables para Pinecone cuando se usa como una extensión de chat de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parámetros para configurar las extensiones de chat de Azure OpenAI Pinecone. | No | |
| type | azureChatExtensionType | Una representación de datos de configuración para una única extensión de chat de Azure OpenAI. Esto se utilizará en una solicitud de finalización de chat que debería emplear extensiones de chat de Azure OpenAI para mejorar el comportamiento de respuesta. El uso de esta configuración es compatible únicamente con Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Parámetros para configurar las extensiones de chat de Azure OpenAI Pinecone.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Si se especifica como verdadero, el sistema permitirá usar resultados parciales de búsqueda y la solicitud falla si todas las consultas fallan. Si no se especifica o se especifica como falso, la solicitud fallará si falla alguna consulta de búsqueda. | No | False |
| authentication | onYourDataApiKeyAuthenticationOptions | Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar búsqueda vectorial, se basa en un nombre interno de despliegue de modelo de embeddings en el mismo recurso de Azure OpenAI. | Yes | |
| environment | string | El nombre ambiental de Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Configuraciones opcionales para controlar cómo se procesan los campos al usar un recurso Pinecone configurado. | Yes | |
| in_scope | boolean | Si las consultas deben restringirse al uso de datos indexados. | No | |
| include_contexts | array | Las propiedades incluidas del contexto de salida. Si no se especifica, el valor por defecto es citations y intent. |
No | |
| index_name | string | El nombre del índice de la base de datos Pinecone. | Yes | |
| max_search_queries | integer | El número máximo de consultas reescritas debe enviarse al proveedor de búsqueda para un mensaje de usuario. Si no se especifica, el sistema decidirá el número de consultas a enviar. | No | |
| strictness | integer | La estricta configuración del filtrado de relevancia en la búsqueda. Cuanto más estricta es la rigurosidad, mayor es la precisión pero menor es la memoria de la respuesta. | No | |
| top_n_documents | integer | El número superior configurado de documentos para destacar en la consulta configurada. | No |
pineconeFieldMappingOptions
Configuraciones opcionales para controlar cómo se procesan los campos al usar un recurso Pinecone configurado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_fields | array | Los nombres de los campos índice que deben tratarse como contenido. | Yes | |
| content_fields_separator | string | El patrón de separación que deberían usar los campos de contenido. | No | |
| filepath_field | string | El nombre del campo índice para usar como ruta de archivo. | No | |
| title_field | string | El nombre del campo índice para usar como título. | No | |
| url_field | string | El nombre del campo índice para usar como URL. | No |
onYourDataAuthenticationOptions
Las opciones de autenticación para Azure OpenAI en tus datos.
Discriminador para onYourDataAuthenticationOptions
Este componente utiliza la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataContextProperty
La propiedad de contexto.
| Property | Value |
|---|---|
| Description | La propiedad de contexto. |
| Type | string |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Los tipos de autenticación soportados con Azure OpenAI On Your Data.
| Property | Value |
|---|---|
| Description | Los tipos de autenticación soportados con Azure OpenAI On Your Data. |
| Type | string |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clave API para usar para la autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data al usar una cadena de conexión.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| connection_string | string | La cadena de conexión para usar para autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza un par de clave y ID de clave de Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clave de Elasticsearch para usar en la autenticación. | No | |
| key_id | string | El ID de clave de Elasticsearch para usar en la autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data al usar una clave API codificada en Elasticsearch.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | string | La clave API codificada por Elasticsearch para usar en la autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
Las opciones de autenticación para Azure OpenAI en tus datos al usar el token de acceso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| access_token | string | El token de acceso para la autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza una identidad gestionada asignada por el sistema.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data cuando se utiliza una identidad gestionada asignada por el usuario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | string | El ID de recurso de la identidad gestionada asignada por el usuario para usar en la autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
Las opciones de autenticación para Azure OpenAI On Your Data al usar un nombre de usuario y una contraseña.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| password | string | The password. para usarlo para autenticación. | No | |
| type | onYourDataAuthenticationType | Los tipos de autenticación soportados con Azure OpenAI On Your Data. | Yes | |
| username | string | El nombre de usuario a usar para la autenticación. | No |
onYourDataVectorizationSource
Una representación abstracta de una fuente de vectorización para Azure OpenAI On Your Data con búsqueda vectorial.
Este componente utiliza la propiedad type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial. | Yes |
onYourDataVectorizationSourceType
Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial.
| Property | Value |
|---|---|
| Description | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial. |
| Type | string |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar la búsqueda vectorial, se basa en una llamada pública de endpoint de Azure OpenAI para embeddings.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| authentication | onYourDataApiKeyAuthenticationOptions o onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | integer | El número de dimensiones que deberían tener los embeddings. Solo soportado en text-embedding-3 y modelos posteriores. |
No | |
| endpoint | string | Especifica la URL del endpoint del recurso desde la que deben recuperarse las incrustaciones. Debería estar en el formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. El parámetro de consulta de versión de la API no está permitido. |
No | |
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial. | Yes |
onYourDataDeploymentNameVectorizationSource
Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar búsqueda vectorial, se basa en un nombre interno de despliegue de modelo de embeddings en el mismo recurso de Azure OpenAI.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | string | Especifica el nombre del despliegue del modelo que se va a usar para la vectorización. Este despliegue de modelo debe realizarse en el mismo recurso de OpenAI de Azure, pero On Your Data usará este despliegue de modelo mediante una llamada interna en lugar de pública, lo que permite la búsqueda vectorial incluso en redes privadas. | No | |
| dimensions | integer | El número de dimensiones que deberían tener los embeddings. Solo soportado en text-embedding-3 y modelos posteriores. |
No | |
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial. | Yes |
onYourDataIntegratedVectorizationSource
Representa el vectorizador integrado definido dentro del recurso de búsqueda.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial. | Yes |
onYourDataModelIdVectorizationSource
Los detalles de una fuente de vectorización, utilizada por Azure OpenAI On Your Data al aplicar la búsqueda vectorial, se basa en un ID de modelo de servicio de búsqueda. Actualmente solo está soportado por Elasticsearch®.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| model_id | string | Especifica el ID del modelo a usar para la vectorización. Este ID de modelo debe definirse en el servicio de búsqueda. | No | |
| type | onYourDataVectorizationSourceType | Representa las fuentes disponibles que Azure OpenAI On Your Data puede usar para configurar la vectorización de datos para su uso con búsqueda vectorial. | Yes |
azureChatExtensionsMessageContext
Una representación de la información contextual adicional disponible cuando las extensiones de chat de Azure OpenAI están involucradas en la generación de una respuesta correspondiente a la finalización del chat. Esta información contextual solo se rellena cuando se utiliza una solicitud OpenAI de Azure configurada para usar una extensión correspondiente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | array | Todos los documentos recuperados. | No | |
| citations | array | El resultado de recuperación de la fuente de datos, utilizado para generar el mensaje asistente en la respuesta. | No | |
| intent | string | La intención detectada del historial de chat, que se usaba para pasar al siguiente turno y mantener el contexto. | No |
citation
Información de cita para un mensaje de respuesta a la finalización de un chat.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | La identificación del fragmento de la multa. | No | |
| content | string | El contenido de la cita. | Yes | |
| filepath | string | La ruta del archivo de la cita. | No | |
| rerank_score | number | La puntuación de reclasificación del documento recuperado. | No | |
| title | string | El título de la cita. | No | |
| url | string | La URL de la cita. | No |
retrievedDocument
El documento recuperado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | string | La identificación del fragmento de la multa. | No | |
| content | string | El contenido de la cita. | Yes | |
| data_source_index | integer | El índice de la fuente de datos. | No | |
| filepath | string | La ruta del archivo de la cita. | No | |
| filter_reason | filterReason | La razón de filtrado del documento recuperado. | No | |
| original_search_score | number | La puntuación original de búsqueda del documento recuperado. | No | |
| rerank_score | number | La puntuación de reclasificación del documento recuperado. | No | |
| search_queries | array | Las consultas de búsqueda utilizadas para recuperar el documento. | No | |
| title | string | El título de la cita. | No | |
| url | string | La URL de la cita. | No |
filterReason
La razón de filtrado del documento recuperado.
| Property | Value |
|---|---|
| Description | La razón de filtrado del documento recuperado. |
| Type | string |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La función que llamó el modelo. | Yes | |
| └─ arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede alucinar parámetros no definidos por tu esquema de funciones. Valida los argumentos de tu código antes de llamar a tu función. | No | |
| └─ name | string | El nombre de la función a llamar. | No | |
| id | string | El ID de la llamada de herramienta. | Yes | |
| type | toolCallType | El tipo de llamada a la herramienta, en este caso function. |
Yes |
toolCallType
El tipo de llamada a la herramienta, en este caso function.
| Property | Value |
|---|---|
| Description | El tipo de llamada a la herramienta, en este caso function. |
| Type | string |
| Values | function |
chatCompletionRequestMessageTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | El contenido del mensaje. | No | |
| tool_call_id | string | Llamada de herramienta a la que este mensaje está respondiendo. | No |
chatCompletionRequestMessageFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | El contenido del mensaje. | No | |
| name | string | El contenido del mensaje. | No | |
| role | enum | El papel del autor de los mensajes, en este caso function.Valores posibles: function |
No |
createChatCompletionResponse
Representa una respuesta de finalización del chat devolvida por el modelo, basada en la entrada proporcionada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Una lista de opciones para completar el chat. Puede ser más de uno si n es mayor que 1. |
Yes | |
| created | integer | La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización del chat. | Yes | |
| id | string | Un identificador único para la finalización del chat. | Yes | |
| model | string | El modelo utilizado para completar el chat. | Yes | |
| object | enum | El tipo de objeto, que es siempre chat.completion.Valores posibles: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Filtrado de contenido resulta para cero o más indicaciones en la solicitud. En una solicitud de streaming, los resultados de diferentes prompts pueden llegar en distintos momentos o en distintos órdenes. | No | |
| system_fingerprint | string | Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo. Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo. |
No | |
| usage | completionUsage | Estadísticas de uso para la solicitud de finalización. | No |
createChatCompletionStreamResponse
Representa un fragmento transmitido de una respuesta de finalización de chat devuelto por el modelo, basado en la entrada proporcionada.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| choices | array | Una lista de opciones para completar el chat. Puede contener más de un elemento si n es mayor que 1. |
Yes | |
| created | integer | La marca de tiempo de Unix (en segundos) de cuándo se creó la finalización del chat. Cada bloque tiene la misma marca de tiempo. | Yes | |
| id | string | Un identificador único para la finalización del chat. Cada bloque tiene el mismo ID. | Yes | |
| model | string | El modelo para generar la completación. | Yes | |
| object | enum | El tipo de objeto, que es siempre chat.completion.chunk.Valores posibles: chat.completion.chunk |
Yes | |
| system_fingerprint | string | Esta huella dactilar representa la configuración del backend con la que se ejecuta el modelo. Puede usarse junto con el seed parámetro de solicitud para entender cuándo se han realizado cambios en el backend que puedan afectar al determinismo. |
No |
chatCompletionStreamResponseDelta
Un delta de completación del chat generado por las respuestas del modelo en streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | string | El contenido del mensaje chunk. | No | |
| function_call | object | Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. |
No | |
| └─ arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede alucinar parámetros no definidos por tu esquema de funciones. Valida los argumentos de tu código antes de llamar a tu función. | No | |
| └─ name | string | El nombre de la función a llamar. | No | |
| refusal | string | El mensaje de rechazo generado por el modelo. | No | |
| role | enum | El papel del autor de este mensaje. Valores posibles: system, user, assistant, tool |
No | |
| tool_calls | array | No |
chatCompletionMessageToolCallChunk
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede alucinar parámetros no definidos por tu esquema de funciones. Valida los argumentos de tu código antes de llamar a tu función. | No | |
| └─ name | string | El nombre de la función a llamar. | No | |
| id | string | El ID de la llamada de herramienta. | No | |
| index | integer | Yes | ||
| type | enum | El tipo de herramienta. Actualmente, solo function está soportado.Valores posibles: function |
No |
chatCompletionStreamOptions
Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Si se activa, se transmitirá un fragmento adicional antes del data: [DONE] mensaje. El usage campo en este fragmento muestra las estadísticas de uso de tokens para toda la petición, y el choices campo siempre será un array vacío. Todos los demás chunks también incluirán un usage campo, pero con valor nulo. |
No |
chatCompletionChoiceLogProbs
Registra la información de probabilidad para la elección.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Una lista de tokens de contenido de mensajes con información de probabilidad logarítmica. | Yes | |
| refusal | array | Una lista de tokens de rechazo de mensajes con información de probabilidad logarítmica. | No |
chatCompletionTokenLogprob
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| bytes | array | Una lista de enteros que representan la representación UTF-8 bytes del token. Útil en casos donde los caracteres están representados por múltiples tokens y sus representaciones en bytes deben combinarse para generar la representación correcta del texto. Puede serlo null si no hay representación en bytes para el token. |
Yes | |
| logprob | number | La probabilidad logarítmica de este token. | Yes | |
| token | string | The token. | Yes | |
| top_logprobs | array | Lista de las fichas más probables y su probabilidad logarítmica, en esta posición de ficha. En casos raros, puede haber menos que el número de solicitados top_logprobs devueltos. |
Yes |
chatCompletionResponseMessage
Un mensaje de finalización del chat generado por el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| audio | object | Si se solicita la modalidad de salida de audio, este objeto contiene datos sobre la respuesta de audio del modelo. | No | |
| └─ data | string | Bytes de audio codificados en Base64 generados por el modelo, en el formato especificado en la solicitud. |
No | |
| └─ expires_at | integer | La marca de tiempo de Unix (en segundos) para cuando esta respuesta de audio ya no estará disponible en el servidor para su uso en conversaciones de varios turnos. |
No | |
| └─ id | string | Identificador único para esta respuesta de audio. | No | |
| └─ transcript | string | Transcripción del audio generado por el modelo. | No | |
| content | string | El contenido del mensaje. | Yes | |
| context | azureChatExtensionsMessageContext | Una representación de la información contextual adicional disponible cuando las extensiones de chat de Azure OpenAI están involucradas en la generación de una respuesta correspondiente a la finalización del chat. Esta información contextual solo se rellena cuando se utiliza una solicitud OpenAI de Azure configurada para usar una extensión correspondiente. | No | |
| function_call | chatCompletionFunctionCall | Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo. |
No | |
| refusal | string | El mensaje de rechazo generado por el modelo. | Yes | |
| role | chatCompletionResponseMessageRole | El papel del autor del mensaje de respuesta. | Yes | |
| tool_calls | array | Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones. | No |
chatCompletionResponseMessageRole
El papel del autor del mensaje de respuesta.
| Property | Value |
|---|---|
| Description | El papel del autor del mensaje de respuesta. |
| Type | string |
| Values | assistant |
chatCompletionToolChoiceOption
Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas. Especificar una herramienta concreta obliga {"type": "function", "function": {"name": "my_function"}} al modelo a llamar a esa herramienta.
none es el valor predeterminado cuando no hay herramientas presentes.
auto es el valor predeterminado si hay herramientas presentes.
Este componente puede ser uno de los siguientes:
chatCompletionNamedToolChoice
Especifica una herramienta que debe usar el modelo. Úsalo para forzar que el modelo llame a una función específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | Yes | ||
| └─ name | string | El nombre de la función a llamar. | No | |
| type | enum | El tipo de herramienta. Actualmente, solo function está soportado.Valores posibles: function |
Yes |
ParallelToolCalls
Si activar la llamada de funciones paralelas durante el uso de la herramienta.
No hay propiedades definidas para este componente.
PredictionContent
El contenido estático predijo de salida, como el contenido de un archivo de texto que se está regenerando.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | Cadena o matriz | El contenido que debe coincidir al generar una respuesta de modelo. Si los tokens generados coincidieran con este contenido, la respuesta completa del modelo podría devolverse mucho más rápido. | Yes | |
| type | enum | El tipo de contenido previsto que quieres ofrecer. Este tipo es actualmente siempre content.Valores posibles: content |
Yes |
chatCompletionMessageToolCalls
Las llamadas a la herramienta generadas por el modelo, como las llamadas a funciones.
No hay propiedades definidas para este componente.
ChatCompletionModalities
Tipos de salida que desearías que el modelo generara para esta petición. La mayoría de los modelos son capaces de generar texto, que es el valor por defecto:
["text"]
El gpt-4o-audio-preview modelo también puede usarse para generar audio. Para solicitar que este modelo genere tanto respuestas de texto como de audio, puedes utilizar:
["text", "audio"]
No hay propiedades definidas para este componente.
chatCompletionFunctionCall
Obsoleto y reemplazado por tool_calls. El nombre y los argumentos de una función que debe llamarse, tal como se genera el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Los argumentos para llamar a la función con, tal como se genera el modelo en formato JSON. Ten en cuenta que el modelo no siempre genera JSON válido y puede alucinar parámetros no definidos por tu esquema de funciones. Valida los argumentos de tu código antes de llamar a tu función. | Yes | |
| name | string | El nombre de la función a llamar. | Yes |
completionUsage
Estadísticas de uso para la solicitud de finalización.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Número de tokens en la finalización generada. | Yes | |
| completion_tokens_details | object | Desglose de los tokens usados en una finalización. | No | |
| └─ accepted_prediction_tokens | integer | Al usar Salidas Predichas, el número de tokens en la predicción que apareció en la finalización. | No | |
| └─ audio_tokens | integer | Tokens de entrada de audio generados por el modelo. | No | |
| └─ reasoning_tokens | integer | Tokens generados por el modelo para razonamiento. | No | |
| └─ rejected_prediction_tokens | integer | Al usar Salidas Predichas, el número de tokens en la predicción que no aparecieron en la finalización. Sin embargo, al igual que los tokens de razonamiento, estos tokens siguen contándose en el total de tokens de completación para fines de facturación, salida y límites de ventana contextual. | No | |
| prompt_tokens | integer | Número de fichas en el prompt. | Yes | |
| prompt_tokens_details | object | Detalles de los tokens de prompt. | No | |
| └─ audio_tokens | integer | Tokens de entrada de audio presentes en el prompt. | No | |
| └─ cached_tokens | integer | El número de tokens de aviso almacenados en caché. | No | |
| total_tokens | integer | Número total de tokens utilizados en la solicitud (prompt + completación). | Yes |
chatCompletionTool
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | FunctionObject | Yes | ||
| type | enum | El tipo de herramienta. Actualmente, solo function está soportado.Valores posibles: function |
Yes |
FunctionParameters
Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato.
Omitir parameters define una función con una lista de parámetros vacía.
No hay propiedades definidas para este componente.
FunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. | No | |
| name | string | El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. | Yes | |
| parameters | FunctionParameters | Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON.
Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato. Omitir parameters define una función con una lista de parámetros vacía. |
No | |
| strict | boolean | Si se debe habilitar la adhesión estricta al esquema al generar la llamada a la función. Si se establece como verdadero, el modelo seguirá el esquema exacto definido en el parameters campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. |
No | False |
ResponseFormatText
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de formato de respuesta que se está definiendo: textValores posibles: text |
Yes |
ResponseFormatJsonObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de formato de respuesta que se está definiendo: json_objectValores posibles: json_object |
Yes |
ResponseFormatJsonSchemaSchema
El esquema para el formato de respuesta, descrito como un objeto de esquema JSON.
No hay propiedades definidas para este componente.
ResponseFormatJsonSchema
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| json_schema | object | Yes | ||
| └─ description | string | Una descripción de para qué sirve el formato de respuesta, utilizada por el modelo para determinar cómo responder en el formato. | No | |
| └─ name | string | El nombre del formato de respuesta. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | El esquema para el formato de respuesta, descrito como un objeto de esquema JSON. | No | |
| └─ strict | boolean | Si se debe habilitar una adhesión estricta al esquema al generar la salida. Si se establece como verdadero, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. |
No | False |
| type | enum | El tipo de formato de respuesta que se está definiendo: json_schemaValores posibles: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | string | No | ||
| index | integer | No |
createTranslationRequest
Translation request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El archivo de audio para traducir. | Yes | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería estar en inglés. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo utiliza la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
audioResponse
Respuesta de traducción o transcripción cuando response_format era json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | Texto traducido o transcrito. | Yes |
audioVerboseResponse
Respuesta de traducción o transcripción cuando response_format estaba verbose_json
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| language | string | Language. | No | |
| segments | array | No | ||
| task | string | Tipo de tarea de audio. | No | |
| text | string | Texto traducido o transcrito. | Yes | |
| words | array | No |
audioResponseFormat
Define el formato de la salida.
| Property | Value |
|---|---|
| Description | Define el formato de la salida. |
| Type | string |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file | string | El objeto de archivo de audio para transcribir. | Yes | |
| language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 mejora la precisión y la latencia. | No | |
| prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. | No | |
| response_format | audioResponseFormat | Define el formato de la salida. | No | |
| temperature | number | La temperatura de muestreo, entre 0 y 1. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Si se establece en 0, el modelo utiliza la probabilidad logarítmica para aumentar automáticamente la temperatura hasta alcanzar ciertos umbrales. | No | 0 |
| timestamp_granularities[] | array | Las granularidades de la marca temporal para esta transcripción.
response_format debe configurarse verbose_json para usar granularidades de marca de tiempo. Se soportan una o ambas opciones: word, o segment. Nota: No hay latencia adicional para las marcas de tiempo de segmentos, pero generar marcas de tiempo de palabra implica latencia adicional. |
No | ['segment'] |
audioSegment
Segmento de transcripción o traducción.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilidad logarítmica media. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Desplazamiento de final de segmento. | No | |
| id | integer | Segment identifier. | No | |
| no_speech_prob | number | Probabilidad de 'no hablar'. | No | |
| seek | number | Desplazamiento del segmento. | No | |
| start | number | Inicio de segmento desplazado. | No | |
| temperature | number | Temperature. | No | |
| text | string | Segment text. | No | |
| tokens | array | Símbolos del texto. | No |
audioWord
Palabra de transcripción o traducción.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end | number | Offset de fin de Word. | No | |
| start | number | Offset de inicio de Word. | No | |
| word | string | Word | No |
createSpeechRequest
Speech request.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input | string | El texto para sintetizar audio. La longitud máxima es de 4.096 caracteres. | Yes | |
| response_format | enum | El formato para sintetizar el audio. Valores posibles: mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | La velocidad del audio sintetizado. Seleccione un valor de 0.25 hasta 4.0.
1.0 es el valor predeterminado. |
No | 1.0 |
| voice | enum | La voz para usar en la síntesis de voz. Valores posibles: alloy, echo, fable, onyx, nova, shimmer |
Yes |
imageQuality
La calidad de la imagen que se generará.
| Property | Value |
|---|---|
| Description | La calidad de la imagen que se generará. |
| Type | string |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
El formato en el que se devuelven las imágenes generadas.
| Property | Value |
|---|---|
| Description | El formato en el que se devuelven las imágenes generadas. |
| Type | string |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
El formato de archivo en el que se devuelven las imágenes generadas. Solo soportado para modelos de serie.
| Property | Value |
|---|---|
| Description | El formato de archivo en el que se devuelven las imágenes generadas. Solo soportado para modelos de la serie GPT-image-1. |
| Type | string |
| Default | png |
| Values | pngjpeg |
imageSize
El tamaño de las imágenes generadas.
| Property | Value |
|---|---|
| Description | El tamaño de las imágenes generadas. |
| Type | string |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
El estilo de las imágenes generadas. Solo es compatible con DALL-E-3.
| Property | Value |
|---|---|
| Description | El estilo de las imágenes generadas. Solo es compatible con DALL-E-3. |
| Type | string |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permite establecer transparencia para el fondo de la(s) imagen(es) generada(s). Este parámetro solo es compatible con modelos en serie gpt-image-1.
| Property | Value |
|---|---|
| Description | Permite establecer transparencia para el fondo de la(s) imagen(es) generada(s). Este parámetro solo es compatible con modelos en serie gpt-image-1. |
| Type | string |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| background | imageBackground | Permite establecer transparencia para el fondo de la(s) imagen(es) generada(s). Este parámetro solo es compatible con modelos en serie gpt-image-1. | No | auto |
| n | integer | El número de imágenes que hay que generar. Para dall-e-3, solo se soporta n=1. | No | 1 |
| output_compression | integer | El nivel de compresión (0-100%) para las imágenes generadas. Este parámetro solo es compatible con modelos de la serie gpt-image-1 con el formato de salida jpeg. | No | 100 |
| output_format | imagesOutputFormat | El formato de archivo en el que se devuelven las imágenes generadas. Solo soportado para modelos de la serie GPT-image-1. | No | png |
| prompt | string | Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 32.000 caracteres para los modelos de la serie gpt-image-1 y de 4.000 caracteres para dall-e-3 | Yes | |
| quality | imageQuality | La calidad de la imagen que se generará. | No | auto |
| response_format | imagesResponseFormat | El formato en el que se devuelven las imágenes generadas. Solo es compatible con DALL-E-3. | No | url |
| size | imageSize | El tamaño de las imágenes generadas. | No | auto |
| style | imageStyle | El estilo de las imágenes generadas. Solo es compatible con DALL-E-3. | No | vivid |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No |
imageEditsRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | Cadena o matriz | La(s) imagen(es) a editar. Debe ser un archivo de imagen compatible o un array de imágenes. Cada imagen debe ser un archivo png o jpg de menos de 25MB. | Yes | |
| mask | string | Una imagen adicional cuyas áreas totalmente transparentes (por ejemplo, donde alfa es cero) indica dónde debe editarse la imagen. Si se proporcionan varias imágenes, la máscara se aplicará a la primera imagen. Debe ser un archivo PNG válido, menos de 4MB y tener las mismas dimensiones que la imagen. | No | |
| n | integer | El número de imágenes que hay que generar. | No | 1 |
| prompt | string | Una descripción en texto de la(s) imagen(es) deseada(s). La longitud máxima es de 32.000 caracteres. | Yes | |
| quality | imageQuality | La calidad de la imagen que se generará. | No | auto |
| response_format | imagesResponseFormat | El formato en el que se devuelven las imágenes generadas. | No | url |
| size | imageSize | El tamaño de las imágenes generadas. | No | auto |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a monitorizar y detectar abusos. | No |
generateImagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created | integer | La marca de tiempo de Unix cuando se creó la operación. | Yes | |
| data | array | Los datos de resultados de la operación, si tienen éxito | Yes | |
| usage | imageGenerationsUsage | Representa detalles de uso de tokens para solicitudes de generación de imágenes. Solo para modelos de la serie GPT-image-1. | No |
imageResult
La URL de la imagen o la imagen codificada si tienen éxito, y un error en caso contrario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| b64_json | string | La imagen codificada base64 | No | |
| content_filter_results | dalleContentFilterResults | Información sobre los resultados del filtrado de contenido. | No | |
| prompt_filter_results | dalleFilterResults | Información sobre la categoría de filtrado de contenido (odio, sexual, violencia, self_harm), si ha sido detectada, así como el nivel de gravedad (escala very_low, baja, media, alta que determina la intensidad y el nivel de riesgo del contenido dañino) y si ha sido filtrado o no. Información sobre contenido de jailbreak y palabrotas, si se ha detectado y si ha sido filtrado o no. Y información sobre la lista de bloqueos de clientes, si ha sido filtrada y su identificación. | No | |
| revised_prompt | string | El prompt que se usó para generar la imagen, si hubo alguna revisión del prompt. | No | |
| url | string | La URL de la imagen. | No |
imageGenerationsUsage
Representa detalles de uso de tokens para solicitudes de generación de imágenes. Solo para modelos de la serie GPT-image-1.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | El número de tokens de entrada. | No | |
| input_tokens_details | object | Un desglose detallado de los tokens de entrada. | No | |
| └─ image_tokens | integer | El número de tokens de imagen. | No | |
| └─ text_tokens | integer | El número de fichas de texto. | No | |
| output_tokens | integer | El número de tokens de salida. | No | |
| total_tokens | integer | El número total de fichas utilizadas. | No |
line
Un objeto línea de contenido que consiste en una secuencia adyacente de elementos de contenido, como palabras y marcas de selección.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| spans | array | Un array de spans que representan objetos detectados y su información de la caja delimitadora. | Yes | |
| text | string | Yes |
span
Un objeto span que representa un objeto detectado y su información de la caja delimitadora.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| length | integer | La longitud del espacio en caracteres, medida en puntos de código Unicode. | Yes | |
| offset | integer | El desplazamiento de caracteres dentro del texto donde comienza el espacio. Este desplazamiento se define como la posición del primer carácter del espacio, contando desde el inicio del texto como puntos de código Unicode. | Yes | |
| polygon | array | Un array de objetos que representan puntos en el polígono que encierra el objeto detectado. | Yes | |
| text | string | El contenido textual del span que representa el objeto detectado. | Yes |
runCompletionUsage
Estadísticas de uso relacionadas con la carrera. Este valor será null si la ejecución no está en estado terminal (es decir, in_progress, queued, etc.).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Número de fichas de finalización utilizadas a lo largo de la partida. | Yes | |
| prompt_tokens | integer | Número de fichas de prompt usadas a lo largo de la partida. | Yes | |
| total_tokens | integer | Número total de fichas utilizadas (prompt + completación). | Yes |
runStepCompletionUsage
Estadísticas de uso relacionadas con el paso de la carrera. Este valor será null mientras el estado del paso de ejecución sea in_progress.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | integer | Número de fichas de completación utilizadas a lo largo del paso de la carrera. | Yes | |
| prompt_tokens | integer | Número de fichas de prompt usadas a lo largo del paso de la ejecución. | Yes | |
| total_tokens | integer | Número total de fichas utilizadas (prompt + completación). | Yes |
assistantsApiResponseFormatOption
Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.
Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.
Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.
Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto.
Este componente puede ser uno de los siguientes:
assistantsApiResponseFormat
Un objeto que describe la salida esperada del modelo. Si json_object solo function se permite pasar el tipo tools a la Carrera. Si text el modelo puede devolver texto o cualquier valor necesario.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Debe ser uno de text o json_object. |
No | text |
tipo Enum: AssistantsApiResponseFormat
| Value | Description |
|---|---|
| text | |
| json_object |
assistantObject
Representa un assistant que puede llamar al modelo y usar herramientas.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | La marca de tiempo de Unix (en segundos) para cuando se creó el asistente. | Yes | |
| description | string | La descripción del asistente. La longitud máxima es de 512 caracteres. |
Yes | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| instructions | string | Las instrucciones del sistema que usa el asistente. La longitud máxima es de 256.000 caracteres. |
Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
Yes | |
| model | string | ID del modelo a usar. | Yes | |
| name | string | El nombre del asistente. La longitud máxima es de 256 caracteres. |
Yes | |
| object | string | El tipo de objeto, que es siempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El ID del almacén vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Una lista de herramientas activadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, file_search, o function. |
Yes | [] |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
objeto Enum: AssistantObjectType
| Value | Description |
|---|---|
| assistant | El tipo de objeto, que siempre es asistente |
createAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descripción del asistente. La longitud máxima es de 512 caracteres. |
No | |
| instructions | string | Las instrucciones del sistema que usa el asistente. La longitud máxima es de 256.000 caracteres. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | Yes | ||
| name | string | El nombre del asistente. La longitud máxima es de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacenamiento vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| └─ vector_stores | array | Un ayudante para crear un almacén vectorial con file_ids y adjuntarlo a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Una lista de herramientas activadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
modifyAssistantRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | La descripción del asistente. La longitud máxima es de 512 caracteres. |
No | |
| instructions | string | Las instrucciones del sistema que usa el asistente. La longitud máxima es de 32.768 caracteres. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | No | ||
| name | string | El nombre del asistente. La longitud máxima es de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Anula la lista de IDs de archivo disponibles para la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | Anula el almacenamiento vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Una lista de herramientas activadas en el asistente. Puede haber un máximo de 128 herramientas por asistente. Las herramientas pueden ser de tipos code_interpreter, retrieval, o function. |
No | [] |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
deleteAssistantResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objeto Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
assistantToolsCode
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | El tipo de herramienta que se está definiendo: code_interpreter |
Yes |
tipo Enum: assistantToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Anula la herramienta de búsqueda de archivos. | No | |
| └─ max_num_results | integer | El número máximo de resultados que debería ofrecer la herramienta de búsqueda de archivos. El valor predeterminado es 20 para los modelos gpt-4* y 5 para los gpt-3.5-turbo. Esta cifra debería estar entre 1 y 50 inclusive. Ten en cuenta que la herramienta de búsqueda de archivos puede dar menos resultados que max_num_results los resultados. |
No | |
| type | string | El tipo de herramienta que se está definiendo: file_search |
Yes |
tipo Enum: asistenteHerramientasArchivoBuscaTipo
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | El tipo de herramienta que se está definiendo: file_search |
Yes |
tipo Enum: asistenteHerramientasArchivoBuscaTipo
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definición de la función. | Yes | |
| └─ description | string | Una descripción de lo que hace la función, utilizada por el modelo para elegir cuándo y cómo llamar a la función. | No | |
| └─ name | string | El nombre de la función a llamar. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Los parámetros que aceptan las funciones se describen como un objeto de esquema JSON. Consulta la guía para ejemplos y la referencia del esquema JSON para documentación sobre el formato. | No | |
| type | string | El tipo de herramienta que se está definiendo: function |
Yes |
tipo Enum: asistenteHerramientasFunción
| Value | Description |
|---|---|
| function |
truncationObject
Controles sobre cómo se truncará un hilo antes de la ejecución. Usa esto para controlar la ventana de contexto inicial de la partida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| last_messages | integer | El número de mensajes más recientes del hilo al construir el contexto para la ejecución. | No | |
| type | string | La estrategia de truncamiento que se debe usar para el hilo. El valor predeterminado es auto. Si se establece en last_messages, el hilo se truncará a los n mensajes más recientes del hilo. Cuando se establece en auto, los mensajes en el centro del hilo se eliminarán para ajustarse a la longitud contextual del modelo, max_prompt_tokens. |
Yes |
tipo Enum: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar generará un mensaje.
auto es el valor por defecto y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.
Especificar una herramienta concreta como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta.
Este componente puede ser uno de los siguientes:
assistantsNamedToolChoice
Especifica una herramienta que debe usar el modelo. Úsalo para forzar que el modelo llame a una herramienta específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | No | ||
| └─ name | string | El nombre de la función a llamar. | No | |
| type | string | El tipo de herramienta. Si el tipo es function, el nombre de la función debe establecerse |
Yes |
tipo Enum: AsistentesNombredElecciónHerramienta
| Value | Description |
|---|---|
| function | |
| code_interpreter | |
| file_search |
runObject
Representa una ejecución en un hilo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | El ID del asistente utilizado para la ejecución de esta partida. | Yes | |
| cancelled_at | integer | La marca de tiempo de Unix (en segundos) para cuando se cancelaba la ejecución. | Yes | |
| completed_at | integer | La marca de tiempo de Unix (en segundos) para cuando se completó la ejecución. | Yes | |
| created_at | integer | La marca de tiempo de Unix (en segundos) para cuando se creó la ejecución. | Yes | |
| expires_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo expirará la ejecución. | Yes | |
| failed_at | integer | La marca de tiempo de Unix (en segundos) para cuando fallaba la ejecución. | Yes | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| incomplete_details | object | Detalles sobre por qué la etapa está incompleta. Lo null será si la etapa no está incompleta. |
Yes | |
| └─ reason | string | La razón por la que la etapa está incompleta. Esto indicará qué límite específico de tokens se alcanzó a lo largo de la ejecución. | No | |
| instructions | string | Las instrucciones que el asistente usó para esta partida. | Yes | |
| last_error | object | El último error asociado a esta ejecución. Lo estará null si no hay errores. |
Yes | |
| └─ code | string | Uno de server_error o rate_limit_exceeded. |
No | |
| └─ message | string | Una descripción legible para humanos del error. | No | |
| max_completion_tokens | integer | El número máximo de fichas de finalización especificadas que se han utilizado a lo largo de la partida. |
Yes | |
| max_prompt_tokens | integer | El número máximo de fichas de prompt especificadas que se han usado a lo largo de la partida. |
Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
Yes | |
| model | string | El modelo que el asistente usó para esta ejecución. | Yes | |
| object | string | El tipo de objeto, que es siempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| required_action | object | Detalles sobre la acción necesaria para continuar la carrera. Lo será null si no se requiere ninguna acción. |
Yes | |
| └─ submit_tool_outputs | object | Detalles sobre los resultados de las herramientas necesarios para que esta partida continúe. | No | |
| └─ tool_calls | array | Una lista de las llamadas a herramientas relevantes. | No | |
| └─ type | enum | Por ahora, esto siempre submit_tool_outputses.Valores posibles: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
Yes | |
| started_at | integer | La marca de tiempo de Unix (en segundos) para cuando se inició la ejecución. | Yes | |
| status | string | El estado de la secuencia, que puede ser , queuedin_progress, requires_action, cancelling, cancelled, failed, completed, , o expired. |
Yes | |
| temperature | number | La temperatura de muestreo utilizada para esta prueba. Si no está activado, por defecto es 1. | No | |
| thread_id | string | El ID de los hilos en los que se ejecutó como parte de esta ejecución. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.none significa que el modelo no llamará a ninguna herramienta y en su lugar generará un mensaje.auto es el valor por defecto y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.Especificar una herramienta concreta como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. |
Yes | |
| tools | array | La lista de herramientas que el asistente usó para esta partida. | Yes | [] |
| top_p | number | El valor de muestreo del núcleo utilizado para esta prueba. Si no está activado, por defecto es 1. | No | |
| truncation_strategy | truncationObject | Controles sobre cómo se truncará un hilo antes de la ejecución. Usa esto para controlar la ventana de contexto inicial de la partida. | Yes | |
| usage | runCompletionUsage | Estadísticas de uso relacionadas con la carrera. Este valor será null si la ejecución no está en estado terminal (es decir, in_progress, queued, etc.). |
Yes |
object Enum: runObjectType
| Value | Description |
|---|---|
| thread.run | El tipo de objeto run que siempre es thread.run |
status Enum: RunObjectStatus
| Value | Description |
|---|---|
| queued | El estado en cola |
| in_progress | El estado in_progress |
| requires_action | El estado required_action |
| cancelling | El estado de cancelación |
| cancelled | El estado cancelado |
| failed | El estado fallido |
| completed | El estado terminado |
| expired | El estado caducado |
createRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | string | Añade instrucciones adicionales al final de las instrucciones para la partida. Esto es útil para modificar el comportamiento por ejecución sin anular otras instrucciones. | No | |
| additional_messages | array | Añade mensajes adicionales al hilo antes de crear la ejecución. | No | |
| assistant_id | string | El ID del asistente para ejecutar esta ejecución. | Yes | |
| instructions | string | Anula el mensaje de sistema predeterminado del asistente. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| max_completion_tokens | integer | El número máximo de fichas de finalización que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de finalización especificado, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de finalización especificados, terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| max_prompt_tokens | integer | El número máximo de fichas de prompt que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de la indicación especificadas, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de prompt especificados, la secuencia terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | El ID del Modelo que se va a usar para ejecutar esta ejecución. Si aquí se proporciona un valor, anulará el modelo asociado al asistente. Si no, se utilizará el modelo asociado al asistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| stream | boolean | Si true, devuelve una secuencia de eventos que ocurren durante la Ejecución como eventos enviados por el servidor, terminando cuando la Ejecución entra en estado terminal con un data: [DONE] mensaje. |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.none significa que el modelo no llamará a ninguna herramienta y en su lugar generará un mensaje.auto es el valor por defecto y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.Especificar una herramienta concreta como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. |
No | |
| tools | array | Anula las herramientas que el asistente pueda usar para esta partida. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles sobre cómo se truncará un hilo antes de la ejecución. Usa esto para controlar la ventana de contexto inicial de la partida. | No |
listRunsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
modifyRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No |
submitToolOutputsRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| stream | boolean | Si true, devuelve una secuencia de eventos que ocurren durante la Ejecución como eventos enviados por el servidor, terminando cuando la Ejecución entra en estado terminal con un data: [DONE] mensaje. |
No | |
| tool_outputs | array | Una lista de herramientas para las que se envían los resultados. | Yes |
runToolCallObject
Llamada a objetos de herramienta
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definición de la función. | Yes | |
| └─ arguments | string | Los argumentos que el modelo espera que transmitas a la función. | No | |
| └─ name | string | El nombre de la función. | No | |
| id | string | El ID de la llamada de herramienta. Este ID debe ser referenciado cuando envíes las salidas de la herramienta usando las salidas de la herramienta para ejecutar endpointendpoint. | Yes | |
| type | string | El tipo de llamada a la herramienta para la que se requiere la salida. Por ahora, esto siempre functiones. |
Yes |
tipo Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| function |
createThreadAndRunRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | El ID del asistente para ejecutar esta ejecución. | Yes | |
| instructions | string | Anula el mensaje de sistema predeterminado del asistente. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| max_completion_tokens | integer | El número máximo de fichas de finalización que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de finalización especificado, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de finalización especificados, terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| max_prompt_tokens | integer | El número máximo de fichas de prompt que pueden usarse a lo largo de la partida. La carrera hace todo lo posible por usar solo el número de fichas de la indicación especificadas, a lo largo de varios turnos de la partida. Si la secuencia supera el número de tokens de prompt especificados, la secuencia terminará con estado incomplete. Consulta incomplete_details para más información. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| model | string | El ID de los modelos que se van a usar para ejecutar esta ejecución. Si aquí se proporciona un valor, anulará el modelo asociado al asistente. Si no, se utilizará el modelo asociado al asistente. | No | |
| parallel_tool_calls | ParallelToolCalls | Si activar la llamada de funciones paralelas durante el uso de la herramienta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica el formato que el modelo debe generar. Compatible con GPT-4o, GPT-4 Turbo y todos los modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106entonces.Configurar para { "type": "json_schema", "json_schema": {...} } activa Salidas Estructuradas que aseguran que el modelo coincide con el esquema JSON que has proporcionado. Aprende más en la guía de Salidas Estructuradas.Al configurar para { "type": "json_object" } activar el modo JSON, que garantiza que el mensaje que genera el modelo sea JSON válido.Importante: al usar el modo JSON, también debes indicar al modelo que produzca JSON tú mismo mediante un mensaje del sistema o del usuario. Sin esto, el modelo puede generar un flujo interminable de espacios en blanco hasta que la generación alcance el límite de tokens, resultando en una solicitud de larga duración y aparentemente "atascada". También hay que tener en cuenta que el contenido del mensaje puede ser parcialmente cortado si finish_reason="length", lo que indica que la generación ha superado max_tokens o la conversación ha superado la longitud máxima del contexto. |
No | |
| stream | boolean | Si true, devuelve una secuencia de eventos que ocurren durante la Ejecución como eventos enviados por el servidor, terminando cuando la Ejecución entra en estado terminal con un data: [DONE] mensaje. |
No | |
| stream_options | chatCompletionStreamOptions | Opciones para la respuesta en streaming. Solo se configura esto cuando se configura stream: true. |
No | None |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. |
No | 1 |
| thread | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controla qué herramienta (si la hay) llamada por el modelo.none significa que el modelo no llamará a ninguna herramienta y en su lugar generará un mensaje.auto es el valor por defecto y significa que el modelo puede elegir entre generar un mensaje o llamar a una herramienta.Especificar una herramienta concreta como {"type": "file_search"} o {"type": "function", "function": {"name": "my_function"}} obliga al modelo a llamar a esa herramienta. |
No | |
| tool_resources | object | Un conjunto de recursos que utilizan las herramientas del asistente. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El ID del almacén vectorial adjunto a este asistente. Puede haber un máximo de 1 almacenamiento vectorial adjunto al asistente. |
No | |
| tools | array | Anula las herramientas que el asistente pueda usar para esta partida. Esto es útil para modificar el comportamiento por cada ejecución. | No | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o la temperatura, pero no ambas. |
No | 1 |
| truncation_strategy | truncationObject | Controles sobre cómo se truncará un hilo antes de la ejecución. Usa esto para controlar la ventana de contexto inicial de la partida. | No |
threadObject
Representa un hilo que contiene mensajes.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo se creó el hilo. | Yes | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
Yes | |
| object | string | El tipo de objeto, que es siempre thread. |
Yes | |
| tool_resources | object | Un conjunto de recursos que están disponibles para las herramientas del asistente en este hilo. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
Yes | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacén vectorial adjunto a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No |
objeto Enum: ThreadObjectType
| Value | Description |
|---|---|
| thread | El tipo de objeto hilo que siempre es thread |
createThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| messages | array | Una lista de mensajes para empezar el hilo. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| tool_resources | object | Un conjunto de recursos que están disponibles para las herramientas del asistente en este hilo. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo puesta a disposición de la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacén vectorial adjunto a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No | |
| └─ vector_stores | array | Un ayudante para crear un almacén vectorial con file_ids y adjuntarlo a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No |
modifyThreadRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| tool_resources | object | Un conjunto de recursos que están disponibles para las herramientas del asistente en este hilo. Los recursos son específicos para el tipo de herramienta. Por ejemplo, la code_interpreter herramienta requiere una lista de IDs de archivo, mientras que la file_search herramienta requiere una lista de IDs de almacenamiento vectorial. |
No | |
| └─ code_interpreter | object | No | ||
| └─ file_ids | array | Una lista de IDs de archivo disponibles para la code_interpreter herramienta. Puede haber un máximo de 20 archivos asociados a la herramienta. |
No | [] |
| └─ file_search | object | No | ||
| └─ vector_store_ids | array | El almacén vectorial adjunto a este hilo. Puede haber un máximo de 1 almacenamiento vectorial adjunto al hilo. |
No |
deleteThreadResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objeto Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | El estado del objeto de respuesta de hilo eliminado, que es thread.deleted |
listThreadsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageObject
Representa un mensaje dentro de un hilo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | Si corresponde, el ID del asistente que redactó este mensaje. | Yes | |
| attachments | array | Una lista de archivos adjuntos al mensaje y las herramientas a las que se añadieron. | Yes | |
| completed_at | integer | La marca de tiempo de Unix (en segundos) para cuando se completó el mensaje. | Yes | |
| content | array | El contenido del mensaje en una matriz de texto y/o imágenes. | Yes | |
| created_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo se creó el mensaje. | Yes | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| incomplete_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo el mensaje se marcaba como incompleto. | Yes | |
| incomplete_details | object | En un mensaje incompleto, detalles sobre por qué el mensaje está incompleto. | Yes | |
| └─ reason | string | La razón por la que el mensaje está incompleto. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
Yes | |
| object | string | El tipo de objeto, que es siempre thread.message. |
Yes | |
| role | string | La entidad que produjo el mensaje. Uno de user o assistant. |
Yes | |
| run_id | string | Si corresponde, el ID de la ejecución asociada a la creación de este mensaje. | Yes | |
| status | string | El estado del mensaje, que puede ser , in_progressincomplete, o completed. |
Yes | |
| thread_id | string | El ID del hilo al que pertenece este mensaje. | Yes |
objeto Enum: MessageObjectType
| Value | Description |
|---|---|
| thread.message | El tipo de objeto mensaje, que es thread.message |
status Enum: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
rol Enum: MessageObjectRole
| Value | Description |
|---|---|
| user | |
| assistant |
messageDeltaObject
Representa una delta de mensaje, es decir, cualquier campo modificado en un mensaje durante la transmisión.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | El delta que contiene los campos que han cambiado en el Mensaje. | Yes | |
| └─ content | array | El contenido del mensaje en una matriz de texto y/o imágenes. | No | |
| └─ role | string | La entidad que produjo el mensaje. Uno de user o assistant. |
No | |
| id | string | El identificador del mensaje, que puede referenciarse en los endpoints de la API. | Yes | |
| object | string | El tipo de objeto, que es siempre thread.message.delta. |
Yes |
objeto Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attachments | array | Una lista de archivos adjuntos al mensaje y las herramientas a las que deberían añadirse. | No | |
| content | string | El contenido del mensaje. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| role | string | El papel de la entidad que crea el mensaje. Los valores permitidos incluyen: - user: Indica que el mensaje es enviado por un usuario real y debe usarse en la mayoría de los casos para representar mensajes generados por el usuario.- assistant: Indica que el mensaje ha sido generado por el asistente. Utiliza este valor para insertar mensajes del asistente en la conversación. |
Yes |
rol Enum: CrearMensajeRequestRole
| Value | Description |
|---|---|
| user | |
| assistant |
modifyMessageRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No |
deleteMessageResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objeto Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | Estado del objeto de respuesta de mensaje eliminar |
listMessagesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
messageContentImageFileObject
Referencia a un archivo de imagen en el contenido de un mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | Yes | ||
| └─ file_id | string | El ID del archivo de la imagen en el contenido del mensaje. | No | |
| type | string | Siempre image_file. |
Yes |
tipo Enum: MensajeContenidoImagenArchivoTipo
| Value | Description |
|---|---|
| image_file | El tipo de archivo de imagen de contenido del mensaje |
messageContentTextObject
El contenido de texto que forma parte de un mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | object | Yes | ||
| └─ annotations | array | No | ||
| └─ value | string | Los datos que componen el texto. | No | |
| type | string | Siempre text. |
Yes |
tipo Enum: mensajeContenidoTextoObjetoType
| Value | Description |
|---|---|
| text | El contenido del mensaje texto Tipo de objeto |
messageContentTextAnnotationsFileCitationObject
Una cita dentro del mensaje que apunta a una cita específica de un archivo específico asociado al asistente o al mensaje. Se genera cuando el asistente utiliza la herramienta de "recuperación" para buscar archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_citation | object | Yes | ||
| └─ file_id | string | El ID del archivo específico del que proviene la cita. | No | |
| start_index | integer | Yes | ||
| text | string | El texto en el contenido del mensaje que necesita ser reemplazado. | Yes | |
| type | string | Siempre file_citation. |
Yes |
tipo Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | El tipo de objeto de citación del archivo |
messageContentTextAnnotationsFilePathObject
Una URL para el archivo que se genera cuando el asistente usa la code_interpreter herramienta para generar un archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | Yes | ||
| file_path | object | Yes | ||
| └─ file_id | string | El ID del archivo que se generó. | No | |
| start_index | integer | Yes | ||
| text | string | El texto en el contenido del mensaje que necesita ser reemplazado. | Yes | |
| type | string | Siempre file_path. |
Yes |
tipo Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | El tipo de objeto ruta de archivo |
messageDeltaContentImageFileObject
Referencia a un archivo de imagen en el contenido de un mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image_file | object | No | ||
| └─ file_id | string | El ID del archivo de la imagen en el contenido del mensaje. | No | |
| index | integer | La parte índice del contenido en el mensaje. | Yes | |
| type | string | Siempre image_file. |
Yes |
tipo Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
El contenido de texto que forma parte de un mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | La parte índice del contenido en el mensaje. | Yes | |
| text | object | No | ||
| └─ annotations | array | No | ||
| └─ value | string | Los datos que componen el texto. | No | |
| type | string | Siempre text. |
Yes |
tipo Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| text |
messageDeltaContentTextAnnotationsFileCitationObject
Una cita dentro del mensaje que apunta a una cita específica de un archivo específico asociado al asistente o al mensaje. Se genera cuando el asistente usa la herramienta "file_search" para buscar archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_citation | object | No | ||
| └─ file_id | string | El ID del archivo específico del que proviene la cita. | No | |
| └─ quote | string | La cita específica en el archivo. | No | |
| index | integer | El índice de la anotación en la parte de contenido de texto. | Yes | |
| start_index | integer | No | ||
| text | string | El texto en el contenido del mensaje que necesita ser reemplazado. | No | |
| type | string | Siempre file_citation. |
Yes |
tipo Enum: MensajeDeltaContenidoTextoAnotacionesArchivoCitaciónObjetoType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Una URL para el archivo que se genera cuando el asistente usa la code_interpreter herramienta para generar un archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | No | ||
| file_path | object | No | ||
| └─ file_id | string | El ID del archivo que se generó. | No | |
| index | integer | El índice de la anotación en la parte de contenido de texto. | Yes | |
| start_index | integer | No | ||
| text | string | El texto en el contenido del mensaje que necesita ser reemplazado. | No | |
| type | string | Siempre file_path. |
Yes |
tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Representa un paso en la ejecución de una secuencia.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | string | El ID del asistente asociado al paso de corrida. | Yes | |
| cancelled_at | integer | La marca de tiempo de Unix (en segundos) para cuando se cancelaba el paso de ejecución. | Yes | |
| completed_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo se completó el paso de ejecución. | Yes | |
| created_at | integer | La marca de tiempo de Unix (en segundos) para cuando se creó el paso de ejecución. | Yes | |
| expired_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo expiraba el paso de ejecución. Un paso se considera caducado si la etapa principal está vencida. | Yes | |
| failed_at | integer | La marca de tiempo de Unix (en segundos) para cuando fallaba el paso de ejecución. | Yes | |
| id | string | El identificador del paso de ejecución, que puede referenciarse en los endpoints de la API. | Yes | |
| last_error | object | El último error asociado a este paso de ejecución. Lo estará null si no hay errores. |
Yes | |
| └─ code | string | Uno de server_error o rate_limit_exceeded. |
No | |
| └─ message | string | Una descripción legible para humanos del error. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
Yes | |
| object | string | El tipo de objeto, que es siempre assistant.run.step. |
Yes | |
| run_id | string | El ID de la ejecución a la que pertenece este paso de ejecución. | Yes | |
| status | string | El estado de la secuencia, que puede ser , in_progresscancelled, failed, completed, o expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject o runStepDetailsToolCallsObject | Los detalles del paso de la carrera. | Yes | |
| thread_id | string | El ID de los hilos que se ejecutaron. | Yes | |
| type | string | El tipo de paso de corrida, que puede ser o tool_callsbien message_creation . |
Yes |
objeto Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | El tipo de objeto, que siempre es assistant.run.step |
tipo Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | El paso message_creation carrera |
| tool_calls | El paso tool_calls correr |
status Enum: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | El estado de la in_progress |
| cancelled | Estado de la temporada cancelada |
| failed | Estado de la temporada cancelada |
| completed | Estado de la temporada cancelada |
| expired | Estado de la temporada cancelada |
runStepDeltaObject
Representa un delta de paso de ejecución, es decir, cualquier campo modificado en un paso de ejecución durante el streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | object | El delta que contiene los campos que han cambiado en el paso de la corrida. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject o runStepDeltaStepDetailsToolCallsObject | Los detalles del paso de la carrera. | No | |
| id | string | El identificador del paso de ejecución, que puede referenciarse en los endpoints de la API. | Yes | |
| object | string | El tipo de objeto, que es siempre thread.run.step.delta. |
Yes |
objeto Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
runStepDetailsMessageCreationObject
Detalles de la creación del mensaje por paso de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | Yes | ||
| └─ message_id | string | El ID del mensaje creado por este paso de ejecución. | No | |
| type | string | Siempre message_creation. |
Yes |
tipo Enum: RunStepDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalles de la creación del mensaje por paso de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| message_creation | object | No | ||
| └─ message_id | string | El ID del mensaje creado por este paso de ejecución. | No | |
| type | string | Siempre message_creation. |
Yes |
tipo Enum: RunStepDeltaStepsDetailsMessageCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Detalles de la llamada a la herramienta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Una serie de llamadas a herramientas en las que participaba el paso de ejecución. Estos pueden asociarse a uno de tres tipos de herramientas: code_interpreter, retrieval o function. |
Yes | |
| type | string | Siempre tool_calls. |
Yes |
tipo Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalles de la llamada a la herramienta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | array | Una serie de llamadas a herramientas en las que participaba el paso de ejecución. Estos pueden asociarse a uno de tres tipos de herramientas: code_interpreter, file_search o function. |
No | |
| type | string | Siempre tool_calls. |
Yes |
tipo Enum: RunStepDeltaDetallesHerramientaLlamadasObjetTipo
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Los detalles de la herramienta Intérprete de Código llaman al paso de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | La definición de llamada a la herramienta Intérprete de Código. | Yes | |
| └─ input | string | La entrada de la herramienta Intérprete de Código llama. | No | |
| └─ outputs | array | Las salidas de la herramienta Code Interpreter llaman. El Intérprete de Código puede generar uno o más elementos, incluyendo texto (logs) o imágenes (image). Cada uno de estos está representado por un tipo de objeto diferente. |
No | |
| id | string | El ID de la llamada de herramienta. | Yes | |
| type | string | El tipo de llamada de herramienta. Esto siempre será code_interpreter para este tipo de llamadas de herramientas. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Los detalles de la herramienta Intérprete de Código llaman al paso de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | object | La definición de llamada a la herramienta Intérprete de Código. | No | |
| └─ input | string | La entrada de la herramienta Intérprete de Código llama. | No | |
| └─ outputs | array | Las salidas de la herramienta Code Interpreter llaman. El Intérprete de Código puede generar uno o más elementos, incluyendo texto (logs) o imágenes (image). Cada uno de estos está representado por un tipo de objeto diferente. |
No | |
| id | string | El ID de la llamada de herramienta. | No | |
| index | integer | El índice de la llamada a la herramienta en el array de llamadas a la herramienta. | Yes | |
| type | string | El tipo de llamada de herramienta. Esto siempre será code_interpreter para este tipo de llamadas de herramientas. |
Yes |
tipo Enum: RunStepDeltaStepsToolToolsCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
La salida de texto de la herramienta Code Interpreter es llamada como parte de un paso de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | La salida de texto de la herramienta Code Interpreter llama. | Yes | |
| type | string | Siempre logs. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
La salida de texto de la herramienta Code Interpreter es llamada como parte de un paso de ejecución.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| index | integer | El índice de la salida en el array de salidas. | Yes | |
| logs | string | La salida de texto de la herramienta Code Interpreter llama. | No | |
| type | string | Siempre logs. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | Yes | ||
| └─ file_id | string | El ID del archivo de la imagen. | No | |
| type | string | Siempre image. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| image | object | No | ||
| └─ file_id | string | El ID del archivo de la imagen. | No | |
| index | integer | El índice de la salida en el array de salidas. | Yes | |
| type | string | Siempre image. |
Yes |
tipo Enum: RunStepDeltaStepsToolsCallsCodeOutputImageObject
| Value | Description |
|---|---|
| image |
runStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Por ahora, esto siempre será un objeto vacío. | Yes | |
| └─ results | array | Los resultados de la búsqueda de archivos. | No | |
| id | string | El ID de la herramienta llama objeto. | Yes | |
| type | string | El tipo de llamada de herramienta. Esto siempre será file_search para este tipo de llamadas de herramientas. |
Yes |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Una instancia de resultado de la búsqueda de archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | El contenido del resultado que se encontró. El contenido solo se incluye si se solicita mediante el parámetro de consulta incluy. | No | |
| file_id | string | El ID del archivo en el que se encontró ese resultado. | Yes | |
| file_name | string | El nombre del archivo en el que se encontró ese resultado. | Yes | |
| score | number | La puntuación del resultado. Todos los valores deben ser un número de coma flotante entre 0 y 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_search | object | Por ahora, esto siempre será un objeto vacío. | Yes | |
| id | string | El ID de la herramienta llama objeto. | No | |
| index | integer | El índice de la llamada a la herramienta en el array de llamadas a la herramienta. | Yes | |
| type | string | El tipo de llamada de herramienta. Esto siempre será retrieval para este tipo de llamadas de herramientas. |
Yes |
tipo Enum: RunStepDeltaDetallesHerramientaLlamadasArchivoBuscaObjetoType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definición de la función que se llamaba. | Yes | |
| └─ arguments | string | Los argumentos pasaban a la función. | No | |
| └─ name | string | El nombre de la función. | No | |
| └─ output | string | La salida de la función. Esto ocurrirá null si los resultados aún no se han presentado. |
No | |
| id | string | El ID de la herramienta llama objeto. | Yes | |
| type | string | El tipo de llamada de herramienta. Esto siempre será function para este tipo de llamadas de herramientas. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| function | object | La definición de la función que se llamaba. | No | |
| └─ arguments | string | Los argumentos pasaban a la función. | No | |
| └─ name | string | El nombre de la función. | No | |
| └─ output | string | La salida de la función. Esto ocurrirá null si los resultados aún no se han presentado. |
No | |
| id | string | El ID de la herramienta llama objeto. | No | |
| index | integer | El índice de la llamada a la herramienta en el array de llamadas a la herramienta. | Yes | |
| type | string | El tipo de llamada de herramienta. Esto siempre será function para este tipo de llamadas de herramientas. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| function |
vectorStoreExpirationAfter
La política de caducidad para una tienda vectorial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| anchor | string | Marca de tiempo del ancla, tras la cual se aplica la política de caducidad. Anclajes soportados: last_active_at. |
Yes | |
| days | integer | El número de días después del tiempo de anclaje en que expirará el almacenamiento vectorial. | Yes |
Enum ancla: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | La marca de tiempo del ancla después de la cual se aplica la política de expiración. |
vectorStoreObject
Un almacén vectorial es una colección de archivos procesados que puede ser utilizada por la file_search herramienta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | La marca de tiempo de Unix (en segundos) para cuando se creó la memoria vectorial. | Yes | |
| expires_after | vectorStoreExpirationAfter | La política de caducidad para una tienda vectorial. | No | |
| expires_at | integer | La marca de tiempo de Unix (en segundos) indica cuándo expirará la memoria vectorial. | No | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | El número de archivos que fueron cancelados. | No | |
| └─ completed | integer | El número de archivos que se han procesado con éxito. | No | |
| └─ failed | integer | El número de archivos que no se han procesado. | No | |
| └─ in_progress | integer | El número de archivos que se están procesando actualmente. | No | |
| └─ total | integer | El número total de archivos. | No | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| last_active_at | integer | La marca de tiempo de Unix (en segundos) para cuándo la memoria vectorial estuvo activa por última vez. | Yes | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
Yes | |
| name | string | El nombre de la tienda vectorial. | Yes | |
| object | enum | El tipo de objeto, que es siempre vector_store.Valores posibles: vector_store |
Yes | |
| status | string | El estado del almacenamiento vectorial, que puede ser , expiredin_progress, o completed. Un estado de completed indica que el almacén vectorial está listo para su uso. |
Yes | |
| usage_bytes | integer | El número total de bytes utilizados por los archivos en el almacén vectorial. | Yes |
status Enum: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. Solo aplicable si file_ids no está vacío. |
No | |
| expires_after | vectorStoreExpirationAfter | La política de caducidad para una tienda vectorial. | No | |
| file_ids | array | Una lista de IDs de archivo que debería usar el almacén vectorial. Útil para herramientas que file_search pueden acceder a archivos. |
No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| name | string | El nombre de la tienda vectorial. | No |
updateVectorStoreRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | La política de caducidad para una tienda vectorial. | No | |
| metadata | object | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado. Las claves pueden tener un máximo de 64 caracteres y los valores pueden llegar a un máximo de 512 caracteres. |
No | |
| name | string | El nombre de la tienda vectorial. | No |
listVectorStoresResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objeto Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | El estado de respuesta de la memoria de vectores de eliminación |
vectorStoreFileObject
Una lista de archivos adjuntos a un almacén vectorial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam o staticChunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. Solo aplicable si file_ids no está vacío. |
No | |
| created_at | integer | La marca de tiempo de Unix (en segundos) para cuando se creó el archivo de almacenamiento vectorial. | Yes | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| last_error | object | El último error asociado a este archivo de almacenamiento vectorial. Lo estará null si no hay errores. |
Yes | |
| └─ code | string | Uno de server_error o invalid_file o unsupported_file. |
No | |
| └─ message | string | Una descripción legible para humanos del error. | No | |
| object | string | El tipo de objeto, que es siempre vector_store.file. |
Yes | |
| status | string | El estado del archivo de almacenamiento vectorial, que puede ser , in_progresscompleted, cancelled, o failed. El estado completed indica que el archivo de almacenamiento vectorial está listo para su uso. |
Yes | |
| usage_bytes | integer | El uso total de almacenamiento vectorial en bytes. Ten en cuenta que esto puede ser diferente del tamaño original del archivo. | Yes | |
| vector_store_id | string | El ID del almacén vectorial al que está adjunto el archivo. | Yes |
objeto Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
status Enum: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Esto se devuelve cuando se desconoce la estrategia de fragmentación. Normalmente, esto se debe a que el archivo se indexó antes de que se introdujera el chunking_strategy concepto en la API.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | string | Siempre other. |
Yes |
tipo Enum: OtroChunkingEstrategiaRespuestaParamTipo
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | string | Siempre static. |
Yes |
tipo Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| static |
staticChunkingStrategy
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | integer | El número de tokens que se solapan entre bloques. El valor por defecto es 400.Nótese que la superposición no debe superar la mitad de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | integer | El número máximo de fichas en cada bloque. El valor por defecto es 800. El valor mínimo es 100 y el valor máximo es 4096. |
Yes |
autoChunkingStrategyRequestParam
La estrategia por defecto. Esta estrategia actualmente utiliza un max_chunk_size_tokens de 800 y chunk_overlap_tokens de 400.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Siempre auto.Valores posibles: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| static | staticChunkingStrategy | Yes | ||
| type | enum | Siempre static.Valores posibles: static |
Yes |
chunkingStrategyRequestParam
La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia.
Este componente puede ser uno de los siguientes:
createVectorStoreFileRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. |
No | |
| file_id | string | Un ID de archivo que debería usar el almacén vectorial. Útil para herramientas que file_search pueden acceder a archivos. |
Yes |
listVectorStoreFilesResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Yes | ||
| first_id | string | Yes | ||
| has_more | boolean | Yes | ||
| last_id | string | Yes | ||
| object | string | Yes |
deleteVectorStoreFileResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | string | Yes | ||
| object | string | Yes |
objeto Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Un lote de archivos adjuntos a un almacén vectorial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | integer | La marca de tiempo de Unix (en segundos) para cuando se creó por lotes los archivos de almacenamiento vectorial. | Yes | |
| file_counts | object | Yes | ||
| └─ cancelled | integer | El número de archivos que fueron cancelados. | No | |
| └─ completed | integer | El número de archivos que se han procesado. | No | |
| └─ failed | integer | El número de archivos que no se han procesado. | No | |
| └─ in_progress | integer | El número de archivos que se están procesando actualmente. | No | |
| └─ total | integer | El número total de archivos. | No | |
| id | string | El identificador, que puede referenciarse en los endpoints de la API. | Yes | |
| object | string | El tipo de objeto, que es siempre vector_store.file_batch. |
Yes | |
| status | string | El estado de los archivos de almacenamiento vectorial por lotes, que puede ser , in_progresscompleted, cancelled o failed. |
Yes | |
| vector_store_id | string | El ID del almacén vectorial al que está conectado el Archivo. | Yes |
object enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
status Enum: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | La estrategia de fragmentación utilizada para fragmentar el(los) archivo(s). Si no está fija, usará la auto estrategia. |
No | |
| file_ids | array | Una lista de IDs de archivo que debería usar el almacén vectorial. Útil para herramientas que file_search pueden acceder a archivos. |
Yes |
assistantStreamEvent
Representa un evento emitido al transmitir una Run.
Cada evento en un flujo de eventos enviado por el servidor tiene una event propiedad y data :
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos cada vez que se crea un nuevo objeto, hace la transición a un nuevo estado o se está transmitiendo en partes (deltas). Por ejemplo, emitimos thread.run.created cuando se crea una nueva ejecución, thread.run.completed cuando se completa una ejecución, y así sucesivamente. Cuando un Asistente decide crear un mensaje durante una ejecución, emitimos un thread.message.created event, un thread.message.in_progress evento, muchos thread.message.delta eventos y finalmente un thread.message.completed evento.
Podemos añadir eventos adicionales con el tiempo, por lo que recomendamos gestionar los eventos desconocidos con elegancia en tu código.
Este componente puede ser uno de los siguientes:
threadStreamEvent
Este componente puede ser uno de los siguientes:
thread.created
Ocurre cuando se crea un nuevo hilo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | threadObject | Representa un hilo que contiene mensajes. | Yes | |
| event | string | Yes |
Data: threadObject
Event Enum: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | El evento creado por el hilo |
runStreamEvent
Este componente puede ser uno de los siguientes:
thread.run.created
Ocurre cuando se crea una nueva partida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Ocurre cuando una escalera pasa a un queued estado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ocurre cuando una escalera pasa a un in_progress estado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Event Enum: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Ocurre cuando una escalera pasa a un requires_action estado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventRequiresAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Ocurre cuando se completa una partida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Ocurre cuando una carrera falla.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Ocurre cuando una escalera pasa a un cancelling estado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Ocurre cuando una carrera se cancela.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Ocurre cuando una carrera expira.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runObject | Representa una ejecución en un hilo. | Yes | |
| event | string | Yes |
Data: runObject
Evento Enum: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Este componente puede ser uno de los siguientes:
thread.run.step.created
Ocurre cuando se crea un paso de corrida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Representa un paso en la ejecución de una secuencia. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Ocurre cuando un paso de corrida pasa a un in_progress estado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Representa un paso en la ejecución de una secuencia. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Ocurre cuando partes de un paso de ejecución se están transmitiendo en streaming.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepDeltaObject | Representa un delta de paso de ejecución, es decir, cualquier campo modificado en un paso de ejecución durante el streaming. |
Yes | |
| event | string | Yes |
Data: runStepDeltaObject
Evento Enum: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ocurre cuando se completa un paso de corrida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Representa un paso en la ejecución de una secuencia. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCompleted
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ocurre cuando falla un paso de corrida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Representa un paso en la ejecución de una secuencia. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Ocurre cuando se cancela un paso de corrida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Representa un paso en la ejecución de una secuencia. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Ocurre cuando expira un paso de corrida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | runStepObject | Representa un paso en la ejecución de una secuencia. |
Yes | |
| event | string | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Este componente puede ser uno de los siguientes:
thread.message.created
Ocurre cuando se crea un mensaje.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Representa un mensaje dentro de un hilo. | Yes | |
| event | string | Yes |
Data: messageObject
Event Enum: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Ocurre cuando un mensaje pasa a un in_progress estado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Representa un mensaje dentro de un hilo. | Yes | |
| event | string | Yes |
Data: messageObject
Event Enum: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Ocurre cuando partes de un mensaje se están transmitiendo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageDeltaObject | Representa una delta de mensaje, es decir, cualquier campo modificado en un mensaje durante la transmisión. |
Yes | |
| event | string | Yes |
Data: messageDeltaObject
Event Enum: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Ocurre cuando un mensaje se completa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Representa un mensaje dentro de un hilo. | Yes | |
| event | string | Yes |
Data: messageObject
Evento Enum: MensajeStreamEventoCompletado
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Ocurre cuando un mensaje termina antes de completarse.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | messageObject | Representa un mensaje dentro de un hilo. | Yes | |
| event | string | Yes |
Data: messageObject
Event Enum: MessageStreamEventIncomplete
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Este componente puede ser uno de los siguientes:
Click
Una acción de clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| button | enum | Indica qué botón del ratón se pulsó durante el clic. Uno de left, right, wheel, back, o forward.Valores posibles: left, right, wheel, back, forward |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de clic, esta propiedad siempre se establece en click.Valores posibles: click |
Yes | |
| x | integer | La coordenada x donde ocurrió el clic. |
Yes | |
| y | integer | La coordenada y donde ocurrió el clic. |
Yes |
CodeInterpreterFileOutput
La salida de una herramienta intérprete de código llama a un archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| files | array | Yes | ||
| type | enum | El tipo de salida del archivo del intérprete de código. Siempre files.Valores posibles: files |
Yes |
CodeInterpreterTextOutput
La salida de una herramienta intérprete de código llamada es texto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| logs | string | Se llaman los registros de la herramienta intérprete de código. |
Yes | |
| type | enum | El tipo de salida de texto del intérprete de código. Siempre logs.Valores posibles: logs |
Yes |
CodeInterpreterTool
Una herramienta que ejecuta código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_ids | array | Los IDs de los archivos para ejecutar el código. |
Yes | |
| type | enum | El tipo de herramienta intérprete de código. Siempre code_interpreter.Valores posibles: code_interpreter |
Yes |
CodeInterpreterToolCall
Una llamada a una herramienta para ejecutar código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | El código a ejecutar. |
Yes | |
| id | string | El ID único de la herramienta intérprete de código llama. |
Yes | |
| results | array | Los resultados de la llamada de la herramienta intérprete de código. |
Yes | |
| status | enum | El estado de la herramienta intérprete de código llama. Valores posibles: in_progress, interpreting, completed |
Yes | |
| type | enum | El tipo al que llama la herramienta intérprete de código. Siempre code_interpreter_call.Valores posibles: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Este componente puede ser uno de los siguientes:
ComparisonFilter
Un filtro usado para comparar una clave de atributos especificada con un valor dado usando una operación de comparación definida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| key | string | La clave es comparar con el valor. | Yes | |
| type | enum | Especifica el operador de comparación: eq, ne, gt, gte, lt, lte.- eq: igual a- ne: no igual- gt: mayor que- gte: mayor o igual- lt: menos que- lte: menor o igualValores posibles: eq, ne, gt, gte, lt, lte |
Yes | |
| value | cadena o número o booleano | El valor a comparar con la clave de atributos; soporta tipos de cadena, número o booleanos. | Yes |
CompoundFilter
Combina varios filtros usando and o or.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | array | Una variedad de filtros para combinar. Los elementos pueden ser ComparisonFilter o CompoundFilter. |
Yes | |
| type | enum | Tipo de operación: and o or.Valores posibles: and, or |
Yes |
ComputerAction
Este componente puede ser uno de los siguientes:
ComputerScreenshotImage
Una imagen de captura de pantalla de ordenador utilizada con la herramienta de uso de ordenador.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | El identificador de un archivo subido que contiene la captura de pantalla. | No | |
| image_url | string | La URL de la imagen de la captura. | No | |
| type | enum | Especifica el tipo de evento. Para una captura de pantalla de ordenador, esta propiedad siempre está configurada como computer_screenshot.Valores posibles: computer_screenshot |
Yes |
ComputerTool
Una herramienta que controla un ordenador virtual.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | La altura de la pantalla del ordenador. |
Yes | |
| display_width | number | El ancho de la pantalla del ordenador. |
Yes | |
| environment | enum | El tipo de entorno informático que hay que controlar. Valores posibles: mac, windows, ubuntu, browser |
Yes | |
| type | enum | El tipo de herramienta de uso del ordenador. Siempre computer_use_preview.Valores posibles: computer-use-preview |
Yes |
ComputerToolCall
Una llamada de herramienta a una herramienta de uso informático.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| call_id | string | Un identificador usado al responder a la llamada a la herramienta con salida. |
Yes | |
| id | string | El ID único de la llamada informática. | Yes | |
| pending_safety_checks | array | Las comprobaciones de seguridad pendientes para la llamada informática. |
Yes | |
| status | enum | El estado del artículo. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | El tipo de llamada por ordenador. Siempre computer_call.Valores posibles: computer_call |
Yes |
ComputerToolCallOutput
La salida de una llamada a una herramienta informática.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Las comprobaciones de seguridad reportadas por la API que han sido reconocidas por el desarrollador. |
No | |
| call_id | string | El ID de la llamada a la herramienta informática que produjo la salida. |
Yes | |
| id | string | El ID de la salida de la llamada a la herramienta informática. |
No | |
| output | ComputerScreenshotImage | Una imagen de captura de pantalla de ordenador utilizada con la herramienta de uso de ordenador. |
Yes | |
| status | enum | El estado de la entrada del mensaje. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos de entrada se devuelven mediante API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de salida de la llamada a la herramienta informática. Siempre computer_call_output.Valores posibles: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | array | Las comprobaciones de seguridad reportadas por la API que han sido reconocidas por el desarrollador. |
No | |
| call_id | string | El ID de la llamada a la herramienta informática que produjo la salida. |
Yes | |
| id | string | El ID único de la salida de la herramienta de llamada informática. |
Yes | |
| output | ComputerScreenshotImage | Una imagen de captura de pantalla de ordenador utilizada con la herramienta de uso de ordenador. |
Yes | |
| status | enum | El estado de la entrada del mensaje. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos de entrada se devuelven mediante API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de salida de la llamada a la herramienta informática. Siempre computer_call_output.Valores posibles: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Una revisión de seguridad pendiente para la llamada del ordenador.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | El tipo de comprobación de seguridad pendiente. | Yes | |
| id | string | La identificación de la revisión de seguridad pendiente. | Yes | |
| message | string | Detalles sobre la revisión de seguridad pendiente. | Yes |
Content
Contenido de entrada y salida multimodal.
Este componente puede ser uno de los siguientes:
Coordinate
Un par de coordenadas x/y, por { x: 100, y: 200 }ejemplo .
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| x | integer | The x-coordinate. |
Yes | |
| y | integer | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| model | string | Modelo utilizado para generar las respuestas. | No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a OpenAI a monitorizar y detectar abusos. . |
No |
createResponse
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | {"$ref": "#/components/schemas/includable/description"} | No | |
| input | Cadena o matriz | Entradas, texto, imagen o archivo al modelo, usados para generar una respuesta. | Yes | |
| instructions | string | Inserta un mensaje del sistema (o del desarrollador) como el primer elemento en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se trasladarán a la siguiente respuesta. Esto facilita intercambiar mensajes del sistema (o del desarrollador) en nuevas respuestas. |
No | |
| max_output_tokens | integer | Un límite superior para el número de tokens que pueden generarse para una respuesta, incluyendo tokens de salida visibles y tokens de razonamiento. |
No | |
| parallel_tool_calls | boolean | Si permitir que el modelo ejecute llamadas a herramientas en paralelo. |
No | True |
| previous_response_id | string | El ID único de la respuesta anterior al modelo. Usa esto para crear conversaciones de varios turnos. | No | |
| reasoning | Reasoning | Opciones de configuración para modelos de razonamiento. | No | |
| store | boolean | Si almacenar la respuesta del modelo generado para su posterior recuperación vía API. |
No | True |
| stream | boolean | Si se configura como verdadero, los datos de respuesta del modelo se transmitirán al cliente a medida que se generan usando eventos enviados por el servidor. | No | False |
| text | object | Opciones de configuración para una respuesta de texto desde el modelo. Puede ser texto plano o datos JSON estructurados. Learn more: - entradas y salidas de texto - Salidas estructuradas |
No | |
| └─ format | TextResponseFormatConfiguration | Un objeto que especifica el formato que el modelo debe generar. La configuración { "type": "json_schema" } habilita Structured Outputs, que asegura que el modelo coincida con el esquema JSON que has proporcionado. El formato por defecto es { "type": "text" } sin opciones adicionales.No recomendado para gpt-4o y modelos más recientes: Configurar para { "type": "json_object" } activa el modo JSON más antiguo, que asegura que el mensaje generado por el modelo sea JSON válido. Se prefiere usar json_schema para modelos que lo soporten. |
No | |
| tool_choice | ElecciónDeHerramientasOpciones o TiposElecciónDeHerramienta o FunciónDeElecciónDeHerramienta | Cómo debe el modelo seleccionar qué herramienta (o herramientas) usar al generar una respuesta. Consulta el tools parámetro para ver cómo especificar qué herramientas puede llamar el modelo. |
No | |
| tools | array | Una variedad de herramientas que el modelo puede invocar mientras genera una respuesta. Puedes especificar qué herramienta usar configurando el tool_choice parámetro.Las dos categorías de herramientas que puedes proporcionar al modelo son: - Herramientas integradas |
No | |
| truncation | enum | La estrategia de truncamiento a usar para la respuesta del modelo. - auto: Si el contexto de esta respuesta y de las anteriores excede el tamaño de la ventana contextual del modelo, el modelo truncará el Respuesta para ajustarse a la ventana de contexto dejando de lado elementos de entrada en medio de la conversación. - disabled (por defecto): Si una respuesta del modelo supera el tamaño de la ventana de contexto para un modelo, la solicitud fallará con un error de 400.Valores posibles: auto, disabled |
No |
DoubleClick
Un doble clic.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de doble clic, esta propiedad siempre se establece en double_click.Valores posibles: double_click |
Yes | |
| x | integer | La coordenada x donde ocurrió el doble clic. |
Yes | |
| y | integer | La coordenada y donde ocurrió el doble clic. |
Yes |
Drag
Una acción de arrastre.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| path | array | Un conjunto de coordenadas que representan el camino de la acción de arrastre. Las coordenadas aparecerán como un conjunto de objetos, por ejemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de arrastre, esta propiedad siempre se establece en drag.Valores posibles: drag |
Yes |
EasyInputMessage
Un mensaje introducido en el modelo con un rol que indica instrucciones siguiendo la jerarquía. Las instrucciones dadas con el developer rol o system tienen prioridad sobre las instrucciones dadas con el user rol. Se presume que los mensajes con el assistant rol fueron generados por el modelo en interacciones anteriores.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | cadena o InputMessageContentList | Entrada de texto, imagen o audio al modelo, utilizada para generar una respuesta. También puede contener respuestas anteriores de asistentes. |
Yes | |
| role | enum | El papel de la entrada del mensaje. Uno de user, assistant, system, o developer.Valores posibles: user, assistant, system, developer |
Yes | |
| type | enum | El tipo de entrada del mensaje. Siempre message.Valores posibles: message |
No |
FileCitation
Una cita a un expediente.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | El ID del archivo. |
Yes | |
| index | integer | El índice del archivo en la lista de archivos. |
Yes | |
| type | enum | El tipo de cita del archivo. Siempre file_citation.Valores posibles: file_citation |
Yes |
FilePath
Una ruta hacia un archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_id | string | El ID del archivo. |
Yes | |
| index | integer | El índice del archivo en la lista de archivos. |
Yes | |
| type | enum | El tipo de ruta del archivo. Siempre file_path.Valores posibles: file_path |
Yes |
FileSearchRanker
El clasificador para usar en la búsqueda de archivos. Si no se especifica, usará el auto clasificador.
| Property | Value |
|---|---|
| Description | El clasificador para usar en la búsqueda de archivos. Si no se especifica, usará el auto clasificador. |
| Type | string |
| Values | autodefault_2024_08_21 |
FileSearchTool
Una herramienta que busca contenido relevante a partir de archivos subidos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro de comparación o filtro compuesto | Un filtro para aplicar basado en atributos de archivo. | No | |
| max_num_results | integer | El número máximo de resultados que se pueden devolver. Esta cifra debería estar entre 1 y 50 inclusive. |
No | |
| ranking_options | object | Opciones de clasificación para la búsqueda. | No | |
| └─ ranker | enum | El clasificador para usar en la búsqueda de archivos. Valores posibles: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | El umbral de puntuación para la búsqueda de archivos, un número entre 0 y 1. Los números más cercanos a 1 intentarán devolver solo los resultados más relevantes, pero pueden devolver menos resultados. |
No | 0 |
| type | enum | El tipo de herramienta de búsqueda de archivos. Siempre file_search.Valores posibles: file_search |
Yes | |
| vector_store_ids | array | Los IDs del vector almacenan para buscar. |
Yes |
FileSearchToolCall
Los resultados de una llamada a una herramienta de búsqueda de archivos.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | El ID único de la herramienta de búsqueda de archivos llama. |
Yes | |
| queries | array | Las consultas que se usan para buscar archivos. |
Yes | |
| results | array | Los resultados de la herramienta de búsqueda de archivos llaman. |
No | |
| status | enum | El estado de la herramienta de búsqueda de archivos llama. Uno de in_progress, searching, incomplete o failed,Valores posibles: in_progress, searching, completed, incomplete, failed |
Yes | |
| type | enum | El tipo al que llama la herramienta de búsqueda de archivos. Siempre file_search_call.Valores posibles: file_search_call |
Yes |
FunctionTool
Define una función en tu propio código que el modelo puede elegir llamar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descripción de la función. Usado por el modelo para determinar si llamar o no a la función. |
No | |
| name | string | El nombre de la función a llamar. |
Yes | |
| parameters | object | Un objeto de esquema JSON que describe los parámetros de la función. |
Yes | |
| strict | boolean | Si aplicar una validación estricta de parámetros. Por defecto true. |
Yes | |
| type | enum | El tipo de herramienta funcional. Siempre function.Valores posibles: function |
Yes |
FunctionToolCall
Una llamada a una herramienta para ejecutar una función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Una cadena JSON de los argumentos que se deben pasar a la función. |
Yes | |
| call_id | string | El ID único de la llamada a la herramienta de función generada por el modelo. |
Yes | |
| id | string | El ID único de la herramienta de función que llama. |
Yes | |
| name | string | El nombre de la función a ejecutar. |
Yes | |
| status | enum | El estado del artículo. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de llamada a la herramienta funcional. Siempre function_call.Valores posibles: function_call |
Yes |
FunctionToolCallOutput
La salida de una llamada a una herramienta funcional.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | El ID único de la llamada a la herramienta de función generada por el modelo. |
Yes | |
| id | string | El ID único de la salida de la llamada a la herramienta funcional. Se llena cuando este elemento se devuelve vía API. |
No | |
| output | string | Una cadena JSON de la salida de la llamada a la herramienta de función. |
Yes | |
| status | enum | El estado del artículo. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de salida de la herramienta de función. Siempre function_call_output.Valores posibles: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| call_id | string | El ID único de la llamada a la herramienta de función generada por el modelo. |
Yes | |
| id | string | El ID único de la salida de la herramienta de llamada a la función. |
Yes | |
| output | string | Una cadena JSON de la salida de la llamada a la herramienta de función. |
Yes | |
| status | enum | El estado del artículo. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de salida de la herramienta de función. Siempre function_call_output.Valores posibles: function_call_output |
Yes |
includable
Especificar datos de salida adicionales para incluir en la respuesta del modelo. Los valores actualmente soportados son:
-
file_search_call.results: Incluye los resultados de búsqueda de la llamada a la herramienta de búsqueda de archivos. -
message.input_image.image_url: Incluir URLs de imagen desde el mensaje de entrada. -
computer_call_output.output.image_url: Incluye URLs de imagen de la salida de la llamada del ordenador.
| Property | Value |
|---|---|
| Description | Especificar datos de salida adicionales para incluir en la respuesta del modelo. Los valores actualmente soportados son: - file_search_call.results: Incluye los resultados de búsqueda de la llamada a la herramienta de búsqueda de archivos.- message.input_image.image_url: Incluir URLs de imagen desde el mensaje de entrada.- computer_call_output.output.image_url: Incluye URLs de imagen de la salida de la llamada del ordenador. |
| Type | string |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Una entrada de audio al modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Datos de audio codificados en base64. |
Yes | |
| format | enum | El formato de los datos de audio. Los formatos actualmente soportados son mp3 y wav.Valores posibles: mp3, wav |
Yes | |
| type | enum | El tipo del elemento de entrada. Siempre input_audio.Valores posibles: input_audio |
Yes |
InputContent
Este componente puede ser uno de los siguientes:
InputFile
Una entrada de archivo al modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| file_data | string | El contenido del archivo que se enviará al modelo. |
No | |
| file_id | string | El ID del archivo que se enviará al modelo. |
No | |
| filename | string | El nombre del archivo que se enviaría al modelo. |
No | |
| type | enum | El tipo del elemento de entrada. Siempre input_file.Valores posibles: input_file |
Yes |
InputImage
Una entrada de imagen al modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| detail | enum | El nivel de detalle de la imagen que se va a enviar al modelo. Uno de high, low, o auto. Por defecto es auto.Valores posibles: high, low, auto |
Yes | |
| file_id | string | El ID del archivo que se enviará al modelo. |
No | |
| image_url | string | La URL de la imagen que se enviará al modelo. Una URL totalmente calificada o una imagen codificada en base64 en una URL de datos. |
No | |
| type | enum | El tipo del elemento de entrada. Siempre input_image.Valores posibles: input_image |
Yes |
InputItem
Este componente puede ser uno de los siguientes:
InputMessage
Un mensaje introducido en el modelo con un rol que indica instrucciones siguiendo la jerarquía. Las instrucciones dadas con el developer rol o system tienen prioridad sobre las instrucciones dadas con el user rol.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Una lista de uno o varios elementos de entrada al modelo, que contienen contenido diferente types. |
Yes | |
| role | enum | El papel de la entrada del mensaje. Uno de user, system, o developer.Valores posibles: user, system, developer |
Yes | |
| status | enum | El estado del objeto. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de entrada del mensaje. Siempre configurado en message.Valores posibles: message |
No |
InputMessageContentList
Una lista de uno o varios elementos de entrada al modelo, que contienen diferentes tipos de contenido.
No hay propiedades definidas para este componente.
InputMessageResource
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | InputMessageContentList | Una lista de uno o varios elementos de entrada al modelo, que contienen contenido diferente types. |
Yes | |
| id | string | El ID único de la entrada del mensaje. |
Yes | |
| role | enum | El papel de la entrada del mensaje. Uno de user, system, o developer.Valores posibles: user, system, developer |
Yes | |
| status | enum | El estado del objeto. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de entrada del mensaje. Siempre configurado en message.Valores posibles: message |
No |
InputText
Una entrada de texto para el modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | La entrada de texto al modelo. |
Yes | |
| type | enum | El tipo del elemento de entrada. Siempre input_text.Valores posibles: input_text |
Yes |
Item
Elemento de contenido utilizado para generar una respuesta.
Este componente puede ser uno de los siguientes:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Un identificador interno para que un elemento lo consulte.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| id | string | El ID del artículo para referenciar. |
Yes | |
| type | enum | El tipo de artículo a consultar. Siempre item_reference.Valores posibles: item_reference |
Yes |
ItemResource
Elemento de contenido utilizado para generar una respuesta.
Este componente puede ser uno de los siguientes:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Una colección de pulsaciones de teclas que el modelo quiere realizar.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| keys | array | La combinación de teclas que el modelo solicita pulsar. Es un arreglo de cadenas, cada una representando una tonalidad. |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de pulsación de tecla, esta propiedad siempre se establece en keypress.Valores posibles: keypress |
Yes |
Metadata
Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control.
Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres.
No hay propiedades definidas para este componente.
ModelResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| metadata | Metadata | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
No | |
| model | string | Modelo utilizado para generar las respuestas. | No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
No | 1 |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
No | 1 |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a OpenAI a monitorizar y detectar abusos. . |
No |
Move
Una acción de movimiento de ratón.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de movimiento, esta propiedad siempre se establece en move.Valores posibles: move |
Yes | |
| x | integer | La coordenada x a la que moverse. |
Yes | |
| y | integer | La coordenada y a la que moverse. |
Yes |
OutputAudio
Una salida de audio del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Datos de audio codificados en Base64 del modelo. |
Yes | |
| transcript | string | La transcripción de los datos de audio del modelo. |
Yes | |
| type | enum | El tipo de audio de salida. Siempre output_audio.Valores posibles: output_audio |
Yes |
OutputContent
Este componente puede ser uno de los siguientes:
OutputItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| action | ComputerAction | Yes | ||
| arguments | string | Una cadena JSON de los argumentos que se deben pasar a la función. |
Yes | |
| call_id | string | Un identificador usado al responder a la llamada a la herramienta con salida. |
Yes | |
| content | array | Argumentar contenido del texto. |
Yes | |
| id | string | El identificador único del contenido de razonamiento. |
Yes | |
| name | string | El nombre de la función a ejecutar. |
Yes | |
| pending_safety_checks | array | Las comprobaciones de seguridad pendientes para la llamada informática. |
Yes | |
| queries | array | Las consultas que se usan para buscar archivos. |
Yes | |
| results | array | Los resultados de la herramienta de búsqueda de archivos llaman. |
No | |
| role | enum | El papel del mensaje de salida. Siempre assistant.Valores posibles: assistant |
Yes | |
| status | enum | El estado del artículo. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | El tipo de objeto. Siempre reasoning.Valores posibles: reasoning |
Yes |
OutputMessage
Un mensaje de salida del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | El contenido del mensaje de salida. |
Yes | |
| id | string | El ID único del mensaje de salida. |
Yes | |
| role | enum | El papel del mensaje de salida. Siempre assistant.Valores posibles: assistant |
Yes | |
| status | enum | El estado de la entrada del mensaje. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos de entrada se devuelven mediante API.Valores posibles: in_progress, completed, incomplete |
Yes | |
| type | enum | El tipo del mensaje de salida. Siempre message.Valores posibles: message |
Yes |
OutputText
Una salida de texto del modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotations | array | Las anotaciones de la salida del texto. |
Yes | |
| text | string | El texto que se emite del modelo. |
Yes | |
| type | enum | El tipo de texto de salida. Siempre output_text.Valores posibles: output_text |
Yes |
RealtimeSessionCreateRequest
Configuración de objetos de sesión en tiempo real.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enum | El formato del audio de entrada. Las opciones son pcm16, g711_ulaw, o g711_alaw.Para pcm16, el audio de entrada debe ser PCM de 16 bits a una frecuencia de muestreo de 24kHz, un solo canal (mono) y orden de bytes little-endian.Valores posibles: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuración para la reducción de ruido de audio de entrada. Esto se puede configurar para null que se apague.La reducción de ruido filtra el audio añadido al búfer de audio de entrada antes de que se envíe al VAD y al modelo. Filtrar el audio puede mejorar la precisión de la detección de VAD y giros (reduciendo falsos positivos) y el rendimiento del modelo al mejorar la percepción del audio de entrada. |
No | |
| └─ type | enum | Tipo de reducción de ruido.
near_field es para micrófonos de habla cercana como auriculares, es far_field para micrófonos de campo lejano como portátiles o de sala de conferencias.Valores posibles: near_field, far_field |
No | |
| input_audio_transcription | object | Configuración para transcripción de audio de entrada, por defecto está apagado y se puede configurar para null apagar una vez encendido. La transcripción de audio de entrada no es nativa del modelo, ya que el modelo consume audio directamente. La transcripción se ejecuta de forma asíncrona a través del extremo de Transcripciones y debe tratarse como una guía del contenido de audio de entrada en lugar de lo que el modelo escuchó exactamente. El cliente puede opcionalmente establecer el idioma y solicitar la transcripción, lo que ofrece orientación adicional al servicio de transcripción. |
No | |
| └─ language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 (por ejemplo en, ) mejora la precisión y la latencia. |
No | |
| └─ model | string | El modelo a usar para la transcripción, las opciones actuales son gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, y whisper-1. |
No | |
| └─ prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. Para whisper-1, el prompt es una lista de palabras clave.Para los gpt-4o-transcribe modelos, el prompt es una cadena de texto libre, por ejemplo "espera palabras relacionadas con la tecnología". |
No | |
| instructions | string | Las instrucciones predeterminadas del sistema (es decir, el mensaje del sistema) precedían a las llamadas de modelo. Este campo permite al cliente guiar el modelo en las respuestas deseadas. El modelo puede ser instruido sobre el contenido y formato de las respuestas (por ejemplo, "sé extremadamente conciso", "actúa amigable", "aquí tienes ejemplos de buenas respuestas") y sobre el comportamiento auditivo (por ejemplo, "habla rápido", "inyecta emoción en tu voz", "ríe con frecuencia"). No se garantiza que el modelo siga las instrucciones, pero proporcionan orientación sobre el comportamiento deseado. Ten en cuenta que el servidor establece instrucciones predeterminadas que se usarán si este campo no está activado y son visibles en el session.created evento al inicio de la sesión. |
No | |
| max_response_output_tokens | entero o cadena | Número máximo de tokens de salida para una respuesta de un solo asistente, incluyendo llamadas a herramientas. Proporcionar un entero entre 1 y 4096 para limitar los tokens de salida, o inf para el máximo de tokens disponibles para un modelo dado. Por defecto es inf. |
No | |
| modalities | El conjunto de modalidades con las que el modelo puede responder. Para desactivar el audio, pon esto en ["texto"]. |
No | ||
| model | string | El nombre del despliegue utilizado para esta sesión. |
No | |
| output_audio_format | enum | El formato del audio de salida. Las opciones son pcm16, g711_ulaw, o g711_alaw.Para pcm16, el audio de salida se muestrea a una tasa de 24kHz.Valores posibles: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | La temperatura de muestreo para el modelo está limitada a [0,6, 1,2]. Para modelos de audio, se recomienda encarecidamente una temperatura de 0,8 para el mejor rendimiento. |
No | 0.8 |
| tool_choice | string | Cómo elige el modelo las herramientas. Las opciones son auto, none, required, o especificar una función. |
No | auto |
| tools | array | Herramientas (funciones) disponibles para el modelo. | No | |
| turn_detection | object | Configuración para detección de giros, VAD de servidor ether o VAD semántico. Esto puede configurarse para null desactivarse, en cuyo caso el cliente debe activar manualmente la respuesta del modelo.El VAD del servidor significa que el modelo detectará el inicio y el final del habla basándose en el volumen del audio y responderá al final del habla del usuario. El VAD semántico es más avanzado y utiliza un modelo de detección de giro (junto con el VAD) para estimar semánticamente si el usuario ha terminado de hablar, y luego establece dinámicamente un tiempo de espera basado en esta probabilidad. Por ejemplo, si el audio del usuario se detiene con uhhm, el modelo puntuará una baja probabilidad de finalización del turno y esperará más tiempo a que el usuario continúe hablando. Esto puede ser útil para conversaciones más naturales, pero puede tener una latencia mayor. |
No | |
| └─ create_response | boolean | Si generar o no automáticamente una respuesta cuando ocurre un evento de parada VAD. |
No | True |
| └─ eagerness | enum | Se usa solo para el semantic_vad modo. El entusiasmo del modelo por responder.
low Esperará más tiempo a que el usuario siga hablando, high responderá más rápido.
auto es el valor predeterminado y es equivalente a medium.Valores posibles: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Si interrumpir automáticamente cualquier respuesta en curso con salida a la conversación predeterminada (es decir, conversation de auto) cuando ocurre un evento de inicio de VAD. |
No | True |
| └─ prefix_padding_ms | integer | Se usa solo para el server_vad modo. Cantidad de audio a incluir antes de que el VAD detectara el habla (en milisegundos). Por defecto es 300ms. |
No | |
| └─ silence_duration_ms | integer | Se usa solo para el server_vad modo. Duración del silencio para detectar la detención del habla (en milisegundos). Por defecto es 500ms. Con valores más cortos, el modelo responderá más rápido, pero puede saltar en pausas cortas del usuario. |
No | |
| └─ threshold | number | Se usa solo para el server_vad modo. El umbral de activación para VAD (0.0 a 1.0), por defecto es 0.5. Un umbral más alto requerirá un audio más alto para activar el modelo, y por tanto podría rendir mejor en entornos ruidosos. |
No | |
| └─ type | enum | Tipo de detección de giro. Valores posibles: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Una nueva configuración de sesión en tiempo real, con una clave efímera. El TTL por defecto para las teclas es de un minuto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clave efímera devuelta por la API. | Yes | |
| └─ expires_at | integer | Marca de tiempo para cuando expira el token. Actualmente, todos los tokens expiran tras un minuto. |
No | |
| └─ value | string | Clave efímera utilizable en entornos cliente para autenticar conexiones a la API en tiempo real. Úsalo en entornos del lado del cliente en lugar de un token API estándar, que solo debería usarse en el lado del servidor. |
No | |
| input_audio_format | string | El formato del audio de entrada. Las opciones son pcm16, g711_ulaw, o g711_alaw. |
No | |
| input_audio_transcription | object | Configuración para transcripción de audio de entrada, por defecto está apagado y se puede configurar para null apagar una vez encendido. La transcripción de audio de entrada no es nativa del modelo, ya que el modelo consume audio directamente. La transcripción se ejecuta de forma asíncrona a través de Whisper y debe tratarse como una guía aproximada en lugar de la representación que entiende el modelo. |
No | |
| └─ model | string | El modelo para transcripción whisper-1 es el único que actualmente soporta. |
No | |
| instructions | string | Las instrucciones predeterminadas del sistema (es decir, el mensaje del sistema) precedían a las llamadas de modelo. Este campo permite al cliente guiar el modelo en las respuestas deseadas. El modelo puede ser instruido sobre el contenido y formato de la respuesta (por ejemplo, "sé extremadamente conciso", "actúa amigable", "aquí tienes ejemplos de buenas respuestas") y sobre el comportamiento auditivo (por ejemplo, "habla rápido", "inyecta emoción en tu voz", "ríe con frecuencia"). No se garantiza que el modelo siga las instrucciones, pero proporcionan orientación sobre el comportamiento deseado. Ten en cuenta que el servidor establece instrucciones predeterminadas que se usarán si este campo no está activado y son visibles en el session.created evento al inicio de la sesión. |
No | |
| max_response_output_tokens | entero o cadena | Número máximo de tokens de salida para una respuesta de un solo asistente, incluyendo llamadas a herramientas. Proporcionar un entero entre 1 y 4096 para limitar los tokens de salida, o inf para el máximo de tokens disponibles para un modelo dado. Por defecto es inf. |
No | |
| modalities | El conjunto de modalidades con las que el modelo puede responder. Para desactivar el audio, pon esto en ["texto"]. |
No | ||
| output_audio_format | string | El formato del audio de salida. Las opciones son pcm16, g711_ulaw, o g711_alaw. |
No | |
| temperature | number | La temperatura de muestreo para el modelo está limitada a [0,6, 1,2]. Por defecto es 0,8. |
No | |
| tool_choice | string | Cómo elige el modelo las herramientas. Las opciones son auto, none, required, o especificar una función. |
No | |
| tools | array | Herramientas (funciones) disponibles para el modelo. | No | |
| turn_detection | object | Configuración para detección de giros. Se puede configurar para null apagarse. El VAD del servidor significa que el modelo detectará el inicio y el final del habla basándose en el volumen del audio y responderá al final del habla del usuario. |
No | |
| └─ prefix_padding_ms | integer | Cantidad de audio a incluir antes de que el VAD detectara el habla (en milisegundos). Por defecto es 300ms. |
No | |
| └─ silence_duration_ms | integer | Duración del silencio para detectar la detención del habla (en milisegundos). Por defecto es 500ms. Con valores más cortos, el modelo responderá más rápido, pero puede saltar en pausas cortas del usuario. |
No | |
| └─ threshold | number | El umbral de activación para VAD (0.0 a 1.0), por defecto es 0.5. Un umbral más alto requerirá un audio más alto para activar el modelo, y por tanto podría rendir mejor en entornos ruidosos. |
No | |
| └─ type | string | Solo el tipo de detección de giro server_vad está soportado actualmente. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuración de objetos en sesiones de transcripción en tiempo real.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| include | array | El conjunto de elementos a incluir en la transcripción. Los artículos disponibles actualmente son: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enum | El formato del audio de entrada. Las opciones son pcm16, g711_ulaw, o g711_alaw.Para pcm16, el audio de entrada debe ser PCM de 16 bits a una frecuencia de muestreo de 24kHz, un solo canal (mono) y orden de bytes little-endian.Valores posibles: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | object | Configuración para la reducción de ruido de audio de entrada. Esto se puede configurar para null que se apague.La reducción de ruido filtra el audio añadido al búfer de audio de entrada antes de que se envíe al VAD y al modelo. Filtrar el audio puede mejorar la precisión de la detección de VAD y giros (reduciendo falsos positivos) y el rendimiento del modelo al mejorar la percepción del audio de entrada. |
No | |
| └─ type | enum | Tipo de reducción de ruido.
near_field es para micrófonos de habla cercana como auriculares, es far_field para micrófonos de campo lejano como portátiles o de sala de conferencias.Valores posibles: near_field, far_field |
No | |
| input_audio_transcription | object | Configuración para transcripción de audio de entrada. El cliente puede opcionalmente establecer el idioma y solicitar la transcripción, lo que ofrece orientación adicional al servicio de transcripción. |
No | |
| └─ language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 (por ejemplo en, ) mejora la precisión y la latencia. |
No | |
| └─ model | enum | El modelo a usar para transcripción, las opciones actuales son gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, y whisper-1.Valores posibles: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. Para whisper-1, el prompt es una lista de palabras clave.Para los gpt-4o-transcribe modelos, el prompt es una cadena de texto libre, por ejemplo "espera palabras relacionadas con la tecnología". |
No | |
| modalities | El conjunto de modalidades con las que el modelo puede responder. Para desactivar el audio, pon esto en ["texto"]. |
No | ||
| turn_detection | object | Configuración para detección de giros, VAD de servidor ether o VAD semántico. Esto puede configurarse para null desactivarse, en cuyo caso el cliente debe activar manualmente la respuesta del modelo.El VAD del servidor significa que el modelo detectará el inicio y el final del habla basándose en el volumen del audio y responderá al final del habla del usuario. El VAD semántico es más avanzado y utiliza un modelo de detección de giro (junto con el VAD) para estimar semánticamente si el usuario ha terminado de hablar, y luego establece dinámicamente un tiempo de espera basado en esta probabilidad. Por ejemplo, si el audio del usuario se detiene con uhhm, el modelo puntuará una baja probabilidad de finalización del turno y esperará más tiempo a que el usuario continúe hablando. Esto puede ser útil para conversaciones más naturales, pero puede tener una latencia mayor. |
No | |
| └─ create_response | boolean | Si generar o no automáticamente una respuesta cuando ocurre un evento de parada VAD. No disponible para sesiones de transcripción. |
No | True |
| └─ eagerness | enum | Se usa solo para el semantic_vad modo. El entusiasmo del modelo por responder.
low Esperará más tiempo a que el usuario siga hablando, high responderá más rápido.
auto es el valor predeterminado y es equivalente a medium.Valores posibles: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Si interrumpir automáticamente cualquier respuesta en curso con salida a la conversación predeterminada (es decir, conversation de auto) cuando ocurre un evento de inicio de VAD. No disponible para sesiones de transcripción. |
No | True |
| └─ prefix_padding_ms | integer | Se usa solo para el server_vad modo. Cantidad de audio a incluir antes de que el VAD detectara el habla (en milisegundos). Por defecto es 300ms. |
No | |
| └─ silence_duration_ms | integer | Se usa solo para el server_vad modo. Duración del silencio para detectar la detención del habla (en milisegundos). Por defecto es 500ms. Con valores más cortos, el modelo responderá más rápido, pero puede saltar en pausas cortas del usuario. |
No | |
| └─ threshold | number | Se usa solo para el server_vad modo. El umbral de activación para VAD (0.0 a 1.0), por defecto es 0.5. Un umbral más alto requerirá un audio más alto para activar el modelo, y por tanto podría rendir mejor en entornos ruidosos. |
No | |
| └─ type | enum | Tipo de detección de giro. Valores posibles: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Una nueva configuración de sesión de transcripción en tiempo real.
Cuando se crea una sesión en el servidor mediante la API REST, el objeto de sesión también contiene una clave efímera. El TTL por defecto para las teclas es de un minuto. Esta propiedad no está presente cuando una sesión se actualiza a través de la API de WebSocket.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| client_secret | object | Clave efímera devuelta por la API. Solo está presente cuando la sesión se crea en el servidor mediante la API REST. |
Yes | |
| └─ expires_at | integer | Marca de tiempo para cuando expira el token. Actualmente, todos los tokens expiran tras un minuto. |
No | |
| └─ value | string | Clave efímera utilizable en entornos cliente para autenticar conexiones a la API en tiempo real. Úsalo en entornos del lado del cliente en lugar de un token API estándar, que solo debería usarse en el lado del servidor. |
No | |
| input_audio_format | string | El formato del audio de entrada. Las opciones son pcm16, g711_ulaw, o g711_alaw. |
No | |
| input_audio_transcription | object | Configuración del modelo de transcripción. |
No | |
| └─ language | string | El idioma del audio de entrada. Suministrar el lenguaje de entrada en formato ISO-639-1 (por ejemplo en, ) mejora la precisión y la latencia. |
No | |
| └─ model | enum | El modelo a usar para la transcripción. Puede ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, o whisper-1.Valores posibles: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | string | Un texto opcional para guiar el estilo del modelo o continuar un segmento de audio anterior. El prompt debería coincidir con el lenguaje del audio. |
No | |
| modalities | El conjunto de modalidades con las que el modelo puede responder. Para desactivar el audio, pon esto en ["texto"]. |
No | ||
| turn_detection | object | Configuración para detección de giros. Se puede configurar para null apagarse. El VAD del servidor significa que el modelo detectará el inicio y el final del habla basándose en el volumen del audio y responderá al final del habla del usuario. |
No | |
| └─ prefix_padding_ms | integer | Cantidad de audio a incluir antes de que el VAD detectara el habla (en milisegundos). Por defecto es 300ms. |
No | |
| └─ silence_duration_ms | integer | Duración del silencio para detectar la detención del habla (en milisegundos). Por defecto es 500ms. Con valores más cortos, el modelo responderá más rápido, pero puede saltar en pausas cortas del usuario. |
No | |
| └─ threshold | number | El umbral de activación para VAD (0.0 a 1.0), por defecto es 0.5. Un umbral más alto requerirá un audio más alto para activar el modelo, y por tanto podría rendir mejor en entornos ruidosos. |
No | |
| └─ type | string | Solo el tipo de detección de giro server_vad está soportado actualmente. |
No |
Reasoning
Opciones de configuración para modelos de razonamiento.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| effort | ReasoningEffort | Restringe el esfuerzo en el razonamiento para modelos de razonamiento. Los valores actualmente soportados son low, medium, y high. Reducir el esfuerzo de razonamiento puede resultar en respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
Yes | medium |
| summary | enum | Un resumen del razonamiento realizado por el modelo. Esto puede ser útil para depurar y entender el proceso de razonamiento del modelo. Uno de concise o detailed.Valores posibles: concise, detailed |
No |
ReasoningItem
Una descripción de la cadena de pensamiento utilizada por un modelo de razonamiento al generar una respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content | array | Argumentar contenido del texto. |
Yes | |
| id | string | El identificador único del contenido de razonamiento. |
Yes | |
| status | enum | El estado del artículo. Uno de in_progress, completed, o incomplete. Se llena cuando los elementos se devuelven vía API.Valores posibles: in_progress, completed, incomplete |
No | |
| type | enum | El tipo de objeto. Siempre reasoning.Valores posibles: reasoning |
Yes |
Refusal
Una negativa de la modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| refusal | string | La explicación de la negativa del modelo. |
Yes | |
| type | enum | El tipo de rechazo. Siempre refusal.Valores posibles: refusal |
Yes |
response
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Marca de tiempo de Unix (en segundos) de cuándo se creó esta respuesta. |
Yes | |
| error | ResponseError | Un objeto de error se devuelve cuando el modelo no genera una Respuesta. |
Yes | |
| id | string | Identificador único para esta respuesta. |
Yes | |
| incomplete_details | object | Detalles sobre por qué la respuesta está incompleta. |
Yes | |
| └─ reason | enum | La razón por la que la respuesta está incompleta. Valores posibles: max_output_tokens, content_filter |
No | |
| instructions | string | Inserta un mensaje del sistema (o del desarrollador) como el primer elemento en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se trasladarán a la siguiente respuesta. Esto facilita intercambiar mensajes del sistema (o del desarrollador) en nuevas respuestas. |
Yes | |
| max_output_tokens | integer | Un límite superior para el número de tokens que se pueden generar para una respuesta, incluyendo tokens de salida visibles y estado de conversación. |
No | |
| metadata | Metadata | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres. |
Yes | |
| model | string | Modelo utilizado para generar las respuestas. | Yes | |
| object | enum | El tipo de objeto de este recurso - siempre se establece en response.Valores posibles: response |
Yes | |
| output | array | Una variedad de elementos de contenido generados por el modelo. - La longitud y el orden de los elementos en el output array dependen de la respuesta del modelo.- En lugar de acceder al primer elemento del output array y asumir que es un assistant mensaje con el contenido generado por el modelo, podrías considerar usar la output_text propiedad donde se admite en los SDKs. |
Yes | |
| output_text | string | Propiedad de conveniencia solo SDK que contiene el texto agregado de salida de todos los output_text elementos del output array, si es que hay alguno. Compatible con los SDKs de Python y JavaScript. |
No | |
| parallel_tool_calls | boolean | Si permitir que el modelo ejecute llamadas a herramientas en paralelo. |
Yes | True |
| previous_response_id | string | El ID único de la respuesta anterior al modelo. Usa esto para crear conversaciones de varios turnos. | No | |
| reasoning | Reasoning | Opciones de configuración para modelos de razonamiento. |
No | |
| status | enum | El estado de la generación de respuesta. Uno de completed, failed, in_progress, o incomplete.Valores posibles: completed, failed, in_progress, incomplete |
No | |
| temperature | number | Qué temperatura de muestreo usar, entre 0 y 2. Valores más altos como 0,8 harán que la salida sea más aleatoria, mientras que valores más bajos como 0,2 la harán más enfocada y determinista. Generalmente recomendamos modificar esto o top_p , pero no ambos. |
Yes | 1 |
| text | object | Opciones de configuración para una respuesta de texto desde el modelo. Puede ser texto plano o datos JSON estructurados. Learn more: - entradas y salidas de texto - Salidas estructuradas |
No | |
| └─ format | TextResponseFormatConfiguration | Un objeto que especifica el formato que el modelo debe generar. La configuración { "type": "json_schema" } habilita Structured Outputs, que asegura que el modelo coincida con el esquema JSON que has proporcionado. El formato por defecto es { "type": "text" } sin opciones adicionales.No recomendado para gpt-4o y modelos más recientes: Configurar para { "type": "json_object" } activa el modo JSON más antiguo, que asegura que el mensaje generado por el modelo sea JSON válido. Se prefiere usar json_schema para modelos que lo soporten. |
No | |
| tool_choice | ElecciónDeHerramientasOpciones o TiposElecciónDeHerramienta o FunciónDeElecciónDeHerramienta | Cómo debe el modelo seleccionar qué herramienta (o herramientas) usar al generar una respuesta. Consulta el tools parámetro para ver cómo especificar qué herramientas puede llamar el modelo. |
Yes | |
| tools | array | Una variedad de herramientas que el modelo puede invocar mientras genera una respuesta. Puedes especificar qué herramienta usar configurando el tool_choice parámetro.Las dos categorías de herramientas que puedes proporcionar al modelo son: - Herramientas integradas |
Yes | |
| top_p | number | Una alternativa al muestreo con temperatura, llamada muestreo de núcleos, donde el modelo considera los resultados de los tokens con top_p masa de probabilidad. Así que 0,1 significa que solo se consideran los tokens que constituyen la masa de probabilidad de 10 primeros%. Generalmente recomendamos modificar esto o temperature , pero no ambos. |
Yes | 1 |
| truncation | enum | La estrategia de truncamiento a usar para la respuesta del modelo. - auto: Si el contexto de esta respuesta y de las anteriores supera el tamaño de la ventana contextual del modelo, el modelo truncará la respuesta para ajustarse a la ventana contextual omitiendo elementos de entrada en medio de la conversación. - disabled (por defecto): Si una respuesta del modelo supera el tamaño de la ventana de contexto para un modelo, la solicitud fallará con un error de 400.Valores posibles: auto, disabled |
No | |
| usage | ResponseUsage | Representa los detalles del uso de los tokens, incluyendo tokens de entrada, tokens de salida, un desglose de los tokens de salida y el total de tokens utilizados. |
No | |
| user | string | Un identificador único que representa a tu usuario final, que puede ayudar a OpenAI a monitorizar y detectar abusos. . |
No |
ResponseAudioDeltaEvent
Se emite cuando hay una respuesta parcial de audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Un fragmento de bytes de audio de respuesta codificados en Base64. |
Yes | |
| type | enum | El tipo de evento. Siempre response.audio.delta.Valores posibles: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Se emite cuando la respuesta de audio termina.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de evento. Siempre response.audio.done.Valores posibles: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Emitido cuando hay una transcripción parcial del audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | La transcripción parcial de la respuesta en audio. |
Yes | |
| type | enum | El tipo de evento. Siempre response.audio.transcript.delta.Valores posibles: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Emitido cuando se completa la transcripción completa del audio.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de evento. Siempre response.audio.transcript.done.Valores posibles: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido cuando el intérprete de código añade un fragmento de código parcial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | El fragmento parcial de código añadido por el intérprete de código. |
Yes | |
| output_index | integer | El índice del elemento de salida que llama el intérprete de código está en curso. |
Yes | |
| type | enum | El tipo de evento. Siempre response.code_interpreter_call.code.delta.Valores posibles: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Se emite cuando la salida del fragmento de código es finalizada por el intérprete de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | El fragmento final de código que genera el intérprete de código. |
Yes | |
| output_index | integer | El índice del elemento de salida que llama el intérprete de código está en curso. |
Yes | |
| type | enum | El tipo de evento. Siempre response.code_interpreter_call.code.done.Valores posibles: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Se emite cuando se completa la llamada al intérprete de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Una llamada a una herramienta para ejecutar código. |
Yes | |
| output_index | integer | El índice del elemento de salida que llama el intérprete de código está en curso. |
Yes | |
| type | enum | El tipo de evento. Siempre response.code_interpreter_call.completed.Valores posibles: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Se emite cuando una llamada a un intérprete de código está en curso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Una llamada a una herramienta para ejecutar código. |
Yes | |
| output_index | integer | El índice del elemento de salida que llama el intérprete de código está en curso. |
Yes | |
| type | enum | El tipo de evento. Siempre response.code_interpreter_call.in_progress.Valores posibles: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Emitido cuando el intérprete de código está interpretando activamente el fragmento de código.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Una llamada a una herramienta para ejecutar código. |
Yes | |
| output_index | integer | El índice del elemento de salida que llama el intérprete de código está en curso. |
Yes | |
| type | enum | El tipo de evento. Siempre response.code_interpreter_call.interpreting.Valores posibles: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emitido cuando la respuesta del modelo está completa.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | El tipo de evento. Siempre response.completed.Valores posibles: response.completed |
Yes |
ResponseContentPartAddedEvent
Se emite cuando se añade una nueva parte de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | El índice de la parte de contenido que se añadió. |
Yes | |
| item_id | string | El ID del elemento de salida al que se añadió la parte de contenido. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se añadió la parte de contenido. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | El tipo de evento. Siempre response.content_part.added.Valores posibles: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Se emite cuando se termina una parte de contenido.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | La parte del índice del contenido que se hace. |
Yes | |
| item_id | string | El ID del elemento de salida al que se añadió la parte de contenido. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se añadió la parte de contenido. |
Yes | |
| part | OutputContent | Yes | ||
| type | enum | El tipo de evento. Siempre response.content_part.done.Valores posibles: response.content_part.done |
Yes |
ResponseCreatedEvent
Un evento que se emite cuando se crea una respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | El tipo de evento. Siempre response.created.Valores posibles: response.created |
Yes |
ResponseError
Un objeto de error se devuelve cuando el modelo no genera una Respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | ResponseErrorCode | El código de error de la respuesta. |
Yes | |
| message | string | Una descripción legible para humanos del error. |
Yes |
ResponseErrorCode
El código de error de la respuesta.
| Property | Value |
|---|---|
| Description | El código de error de la respuesta. |
| Type | string |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Se emite cuando ocurre un error.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| code | string | El código de error. |
Yes | |
| message | string | El mensaje de error. |
Yes | |
| param | string | El parámetro de error. |
Yes | |
| type | enum | El tipo de evento. Siempre error.Valores posibles: error |
Yes |
ResponseFailedEvent
Un evento que se emite cuando una respuesta falla.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | El tipo de evento. Siempre response.failed.Valores posibles: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Se emite cuando se completa una llamada de búsqueda de archivo (resultados encontrados).
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | El ID del elemento de salida al que se inicia la búsqueda de archivos. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se inicia la búsqueda de archivos. |
Yes | |
| type | enum | El tipo de evento. Siempre response.file_search_call.completed.Valores posibles: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Se emite cuando se inicia una llamada de búsqueda de archivo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | El ID del elemento de salida al que se inicia la búsqueda de archivos. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se inicia la búsqueda de archivos. |
Yes | |
| type | enum | El tipo de evento. Siempre response.file_search_call.in_progress.Valores posibles: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Se emite cuando una búsqueda de archivo está en proceso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item_id | string | El ID del elemento de salida al que se inicia la búsqueda de archivos. |
Yes | |
| output_index | integer | El índice del elemento de salida que está buscando la búsqueda de archivos. |
Yes | |
| type | enum | El tipo de evento. Siempre response.file_search_call.searching.Valores posibles: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emitido cuando hay un delta parcial de argumentos de llamada a función.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| delta | string | Se añade el delta de los argumentos de llamada de función. |
Yes | |
| item_id | string | El ID del elemento de salida al que se añade el delta de los argumentos de la llamada a la función. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se añade el delta de los argumentos de la llamada de función. |
Yes | |
| type | enum | El tipo de evento. Siempre response.function_call_arguments.delta.Valores posibles: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Se emite cuando se finalizan los argumentos de llamada a funciones.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| arguments | string | Los argumentos de la llamada de función. | Yes | |
| item_id | string | La identificación del artículo. | Yes | |
| output_index | integer | El índice del elemento de salida. | Yes | |
| type | enum | Valores posibles: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Se emite cuando la respuesta está en curso.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | El tipo de evento. Siempre response.in_progress.Valores posibles: response.in_progress |
Yes |
ResponseIncompleteEvent
Un evento que se emite cuando una respuesta termina como incompleta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| type | enum | El tipo de evento. Siempre response.incomplete.Valores posibles: response.incomplete |
Yes |
responseItemList
Una lista de elementos de respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Una lista de elementos usados para generar esta respuesta. | Yes | |
| first_id | string | El ID del primer elemento de la lista. | Yes | |
| has_more | boolean | Si hay más artículos disponibles. | Yes | |
| last_id | string | El ID del último elemento de la lista. | Yes | |
| object | enum | El tipo de objeto devuelto, debe ser list.Valores posibles: list |
Yes |
ResponseModalities
Tipos de salida que te gustaría que generara el modelo. La mayoría de los modelos son capaces de generar texto, que es el valor por defecto:
["text"]
El gpt-4o-audio-preview modelo también puede usarse para generar audio. Para solicitar que este modelo genere tanto respuestas de texto como de audio, puedes utilizar:
["text", "audio"]
No hay propiedades definidas para este componente.
ResponseModalitiesTextOnly
Tipos de salida que te gustaría que generara el modelo. La mayoría de los modelos son capaces de generar texto, que es el valor por defecto:
["text"]
Esta API pronto soportará otras modalidades de salida, incluyendo audio e imágenes.
No hay propiedades definidas para este componente.
ResponseOutputItemAddedEvent
Se emite cuando se añade un nuevo elemento de salida.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | El índice del elemento de salida que se añadió. |
Yes | |
| type | enum | El tipo de evento. Siempre response.output_item.added.Valores posibles: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Se emite cuando un elemento de salida se marca como terminado.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | integer | El índice del elemento de salida que se marcó como hecho. |
Yes | |
| type | enum | El tipo de evento. Siempre response.output_item.done.Valores posibles: response.output_item.done |
Yes |
ResponseProperties
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| instructions | string | Inserta un mensaje del sistema (o del desarrollador) como el primer elemento en el contexto del modelo. Al usar junto con previous_response_id, las instrucciones de una respuesta anterior no se trasladarán a la siguiente respuesta. Esto facilita intercambiar mensajes del sistema (o del desarrollador) en nuevas respuestas. |
No | |
| max_output_tokens | integer | Un límite superior para el número de tokens que se pueden generar para una respuesta, incluyendo tokens de salida visibles y estado de conversación. |
No | |
| previous_response_id | string | El ID único de la respuesta anterior al modelo. Usa esto para crear conversaciones de varios turnos. | No | |
| reasoning | Reasoning | Opciones de configuración para modelos de razonamiento. |
No | |
| text | object | Opciones de configuración para una respuesta de texto desde el modelo. Puede ser texto plano o datos JSON estructurados. Learn more: - entradas y salidas de texto - Salidas estructuradas |
No | |
| └─ format | TextResponseFormatConfiguration | Un objeto que especifica el formato que el modelo debe generar. La configuración { "type": "json_schema" } habilita Structured Outputs, que asegura que el modelo coincida con el esquema JSON que has proporcionado. El formato por defecto es { "type": "text" } sin opciones adicionales.No recomendado para gpt-4o y modelos más recientes: Configurar para { "type": "json_object" } activa el modo JSON más antiguo, que asegura que el mensaje generado por el modelo sea JSON válido. Se prefiere usar json_schema para modelos que lo soporten. |
No | |
| tool_choice | ElecciónDeHerramientasOpciones o TiposElecciónDeHerramienta o FunciónDeElecciónDeHerramienta | Cómo debe el modelo seleccionar qué herramienta (o herramientas) usar al generar una respuesta. Consulta el tools parámetro para ver cómo especificar qué herramientas puede llamar el modelo. |
No | |
| tools | array | Una variedad de herramientas que el modelo puede invocar mientras genera una respuesta. Puedes especificar qué herramienta usar configurando el tool_choice parámetro.Las dos categorías de herramientas que puedes proporcionar al modelo son: - Herramientas integradas |
No | |
| truncation | enum | La estrategia de truncamiento a usar para la respuesta del modelo. - auto: Si el contexto de esta respuesta y de las anteriores supera el tamaño de la ventana contextual del modelo, el modelo truncará la respuesta para ajustarse a la ventana contextual omitiendo elementos de entrada en medio de la conversación. - disabled (por defecto): Si una respuesta del modelo supera el tamaño de la ventana de contexto para un modelo, la solicitud fallará con un error de 400.Valores posibles: auto, disabled |
No |
ResponseRefusalDeltaEvent
Se emite cuando hay un texto de rechazo parcial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | El índice del contenido a la que se añade el texto de rechazo. |
Yes | |
| delta | string | El texto de rechazo que se añade. |
Yes | |
| item_id | string | El ID del elemento de salida al que se añade el texto de rechazo. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se añade el texto de rechazo. |
Yes | |
| type | enum | El tipo de evento. Siempre response.refusal.delta.Valores posibles: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Se emite cuando se finaliza el texto de rechazo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | El índice del contenido, la parte donde se finaliza el texto de rechazo. |
Yes | |
| item_id | string | El ID del elemento de salida en el que se finaliza el texto de rechazo. |
Yes | |
| output_index | integer | El índice del elemento de salida donde se finaliza el texto de rechazo. |
Yes | |
| refusal | string | El texto de rechazo que queda finalizado. |
Yes | |
| type | enum | El tipo de evento. Siempre response.refusal.done.Valores posibles: response.refusal.done |
Yes |
responseStreamEvent
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | El índice de la anotación que se añadió. |
Yes | |
| arguments | string | Los argumentos de la llamada de función. | Yes | |
| code | string | El código de error. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Una llamada a una herramienta para ejecutar código. |
Yes | |
| content_index | integer | El índice de la parte de contenido donde se finaliza el contenido textual. |
Yes | |
| delta | string | El texto delta que se añadió. |
Yes | |
| item | OutputItem | El elemento de salida que estaba marcado como hecho. |
Yes | |
| item_id | string | El ID del elemento de salida donde se finaliza el contenido de texto. |
Yes | |
| message | string | El mensaje de error. |
Yes | |
| output_index | integer | El índice del elemento de salida donde se finaliza el contenido del texto. |
Yes | |
| param | string | El parámetro de error. |
Yes | |
| part | OutputContent | La parte de contenido que se hace. |
Yes | |
| refusal | string | El texto de rechazo que queda finalizado. |
Yes | |
| response | response | La respuesta estaba incompleta. |
Yes | |
| text | string | El contenido del texto que está finalizado. |
Yes | |
| type | enum | El tipo de evento. Siempre response.output_text.done.Valores posibles: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Se emite cuando se añade una anotación de texto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| annotation | Annotation | Yes | ||
| annotation_index | integer | El índice de la anotación que se añadió. |
Yes | |
| content_index | integer | El índice de la parte de contenido a la que se añadió la anotación de texto. |
Yes | |
| item_id | string | El ID del elemento de salida al que se añadió la anotación de texto. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se añadió la anotación de texto. |
Yes | |
| type | enum | El tipo de evento. Siempre response.output_text.annotation.added.Valores posibles: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Se emite cuando hay una delta de texto adicional.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | El índice de la parte de contenido a la que se añadió el delta de texto. |
Yes | |
| delta | string | El texto delta que se añadió. |
Yes | |
| item_id | string | El ID del elemento de salida al que se añadió el delta de texto. |
Yes | |
| output_index | integer | El índice del elemento de salida al que se añadió la delta de texto. |
Yes | |
| type | enum | El tipo de evento. Siempre response.output_text.delta.Valores posibles: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Se emite cuando el contenido de texto se finaliza.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| content_index | integer | El índice de la parte de contenido donde se finaliza el contenido textual. |
Yes | |
| item_id | string | El ID del elemento de salida donde se finaliza el contenido de texto. |
Yes | |
| output_index | integer | El índice del elemento de salida donde se finaliza el contenido del texto. |
Yes | |
| text | string | El contenido del texto que está finalizado. |
Yes | |
| type | enum | El tipo de evento. Siempre response.output_text.done.Valores posibles: response.output_text.done |
Yes |
ResponseUsage
Representa los detalles del uso de los tokens, incluyendo tokens de entrada, tokens de salida, un desglose de los tokens de salida y el total de tokens utilizados.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | integer | El número de tokens de entrada. | Yes | |
| output_tokens | integer | El número de tokens de salida. | Yes | |
| output_tokens_details | object | Un desglose detallado de los tokens de salida. | Yes | |
| └─ reasoning_tokens | integer | El número de fichas de razonamiento. | No | |
| total_tokens | integer | El número total de fichas utilizadas. | Yes |
Screenshot
Una acción de captura de pantalla.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de captura de pantalla, esta propiedad siempre está configurada como screenshot.Valores posibles: screenshot |
Yes |
Scroll
Una acción de scroll.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | integer | La distancia de desplazamiento horizontal. |
Yes | |
| scroll_y | integer | La distancia de desplazamiento vertical. |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de desplazamiento, esta propiedad siempre se establece en scroll.Valores posibles: scroll |
Yes | |
| x | integer | La coordenada x donde ocurrió el scroll. |
Yes | |
| y | integer | La coordenada y donde ocurrió el scroll. |
Yes |
StopConfiguration
Hasta 4 secuencias donde la API deja de generar más tokens. El texto devuelto no contendrá la secuencia de paradas.
Este componente puede ser uno de los siguientes:
TextResponseFormatConfiguration
Un objeto que especifica el formato que el modelo debe generar.
La configuración { "type": "json_schema" } habilita las Salidas Estructuradas, que aseguran que el modelo coincida con el esquema JSON que has proporcionado.
El formato por defecto es { "type": "text" } sin opciones adicionales.
No recomendado para gpt-4o y modelos más recientes:
Configurar para { "type": "json_object" } activa el modo JSON más antiguo, que asegura que el mensaje generado por el modelo sea JSON válido. Se prefiere usar json_schema para modelos que lo soporten.
Este componente puede ser uno de los siguientes:
TextResponseFormatJsonSchema
Formato de respuesta de esquema JSON. Se utiliza para generar respuestas JSON estructuradas. Infórmate más sobre Structured Outputs.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| description | string | Una descripción de para qué sirve el formato de respuesta, utilizada por el modelo para determinar cómo responder en el formato. |
No | |
| name | string | El nombre del formato de respuesta. Debe ser de la a-z, de la A a la Z, del 0 al 9, o contener guiones bajos y guiones, con una longitud máxima de 64. |
No | |
| schema | ResponseFormatJsonSchemaSchema | El esquema para el formato de respuesta, descrito como un objeto de esquema JSON. | Yes | |
| strict | boolean | Si se debe habilitar una adhesión estricta al esquema al generar la salida. Si se establece como verdadero, el modelo siempre seguirá el esquema exacto definido en el schema campo. Solo se soporta un subconjunto de JSON Schema cuando strict es true. |
No | False |
| type | enum | El tipo de formato de respuesta que se está definiendo. Siempre json_schema.Valores posibles: json_schema |
Yes |
Tool
Este componente puede ser uno de los siguientes:
ToolChoiceFunction
Utiliza esta opción para forzar que el modelo llame a una función específica.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| name | string | El nombre de la función a llamar. | Yes | |
| type | enum | Para la llamada a funciones, el tipo es siempre function.Valores posibles: function |
Yes |
ToolChoiceOptions
Controla qué herramienta (si la hay) llamada por el modelo.
none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.
auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.
required significa que el modelo debe llamar a una o más herramientas.
| Property | Value |
|---|---|
| Description | Controla qué herramienta (si la hay) llamada por el modelo.none significa que el modelo no llamará a ninguna herramienta y en su lugar genera un mensaje.auto significa que el modelo puede elegir entre generar un mensaje o llamar a una o más herramientas.required significa que el modelo debe llamar a una o más herramientas. |
| Type | string |
| Values | noneautorequired |
ToolChoiceTypes
Indica que el modelo debe usar una herramienta incorporada para generar una respuesta.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | El tipo de herramienta alojada que el modelo debería usar. Los valores permitidos son: - file_search- computer_use_previewValores posibles: file_search, computer_use_preview |
Yes |
Type
Una acción para escribir un texto.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | El texto para escribir. |
Yes | |
| type | enum | Especifica el tipo de evento. Para una acción de tipo, esta propiedad siempre se establece en type.Valores posibles: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. |
Yes |
UrlCitation
Una cita de un recurso web utilizado para generar una respuesta de modelo.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| end_index | integer | El índice del último carácter de la cita URL en el mensaje. |
Yes | |
| start_index | integer | El índice del primer carácter de la cita URL en el mensaje. |
Yes | |
| title | string | El título del recurso web. |
Yes | |
| type | enum | El tipo de cita de la URL. Siempre url_citation.Valores posibles: url_citation |
Yes | |
| url | string | La URL del recurso web. |
Yes |
VectorStoreFileAttributes
Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números.
No hay propiedades definidas para este componente.
VectorStoreFileContentResponse
Representa el contenido analizado de un archivo de almacenamiento vectorial.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | Contenido analizado del archivo. | Yes | |
| has_more | boolean | Indica si hay más páginas de contenido que recuperar. | Yes | |
| next_page | string | El token para la siguiente página, si es que lo hay. | Yes | |
| object | enum | El tipo de objeto, que siempre es vector_store.file_content.pageValores posibles: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro de comparación o filtro compuesto | Un filtro para aplicar basado en atributos de archivo. | No | |
| max_num_results | integer | El número máximo de resultados que se pueden devolver. Esta cifra debería estar entre 1 y 50 inclusive. | No | 10 |
| query | Cadena o matriz | Una cadena de consulta para una búsqueda | Yes | |
| ranking_options | object | Opciones de clasificación para la búsqueda. | No | |
| └─ ranker | enum | Valores posibles: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Si reescribir la consulta en lenguaje natural para la búsqueda vectorial. | No | False |
VectorStoreSearchResultContentObject
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| text | string | El contenido del texto devuelto de la búsqueda. | Yes | |
| type | enum | El tipo de contenido. Valores posibles: text |
Yes |
VectorStoreSearchResultItem
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares clave-valor que pueden adjuntarse a un objeto. Esto puede ser útil para almacenar información adicional sobre el objeto en un formato estructurado y para consultar objetos a través de la API o el panel de control. Las teclas son cadenas con una longitud máxima de 64 caracteres. Los valores son cadenas con una longitud máxima de 512 caracteres, booleanos o números. |
Yes | |
| content | array | Fragmentos de contenido del archivo. | Yes | |
| file_id | string | El ID del archivo de almacenamiento vectorial. | Yes | |
| filename | string | El nombre del archivo de almacenamiento vectorial. | Yes | |
| score | number | La puntuación de similitud para el resultado. | Yes |
VectorStoreSearchResultsPage
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | array | La lista de elementos de resultados de búsqueda. | Yes | |
| has_more | boolean | Indica si hay más resultados que recoger. | Yes | |
| next_page | string | El token para la siguiente página, si es que lo hay. | Yes | |
| object | enum | El tipo de objeto, que siempre es vector_store.search_results.pageValores posibles: vector_store.search_results.page |
Yes | |
| search_query | array | Yes |
VoiceIdsShared
No hay propiedades definidas para este componente.
Wait
Una acción de espera.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| type | enum | Especifica el tipo de evento. Para una acción de espera, esta propiedad siempre se establece en wait.Valores posibles: wait |
Yes |
ReasoningEffort
Restringe el esfuerzo en el razonamiento para modelos de razonamiento. Los valores actualmente soportados son low, medium, y high. Reducir el esfuerzo de razonamiento puede resultar en respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta.
| Property | Value |
|---|---|
| Description | Restringe el esfuerzo en el razonamiento para modelos de razonamiento. Los valores actualmente soportados son low, medium, y high. Reducir el esfuerzo de razonamiento puede resultar en respuestas más rápidas y menos tokens usados en el razonamiento en una respuesta. |
| Type | string |
| Default | medium |
| Values | lowmediumhigh |
errorEvent
Ocurre cuando ocurre un error. Esto puede ocurrir debido a un error interno del servidor o a un tiempo de espera.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | error | Yes | ||
| event | string | Yes |
event Enum: ErrorEventEnum
| Value | Description |
|---|---|
| error |
doneEvent
Ocurre cuando termina un chorro.
| Name | Type | Description | Required | Default |
|---|---|---|---|---|
| data | string | Yes | ||
| event | string | Yes |
evento Enum: DoneEventEnum
| Value | Description |
|---|---|
| done |
data Enum: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Aprende sobre modelos y ajustes finos con la API REST. Obtenga más información sobre los modelos underlying que potencian Azure OpenAI.