Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Exibição no momento:Versão do portal - do Foundry (clássico)Alternar para a versão do novo portal do Foundry
Note
Links neste artigo podem abrir conteúdo na nova documentação do Microsoft Foundry em vez da documentação da Foundry (clássica) que você está exibindo agora.
Este artigo fornece detalhes sobre os endpoints de inferência da API REST para Azure OpenAI.
API specs
Gerenciar e interagir com modelos e recursos do OpenAI do Azure é dividido em três superfícies principais de API:
- Control plane
- Plano de dados - autoria
- Plano de dados - inferência
Cada superfície/especificação de API encapsula um conjunto diferente de capacidades do Azure OpenAI. Cada API possui seu próprio conjunto único de pré-visualizações e versões estáveis/geralmente disponíveis (GA). Os lançamentos de prévia atualmente tendem a seguir uma cadência mensal.
Important
Agora há uma nova API de inferência de pré-visualização. Saiba mais em nosso guia do ciclo de vida da API.
| API | Última versão de prévia | Última versão da GA | Specifications | Description |
|---|---|---|---|---|
| Control plane | 2025-07-01-preview |
2025-06-01 |
Spec files | A API do plano de controle é usada para operações como criação de recursos, implantação de modelos e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com capacidades como Azure Resource Manager, Bicep, Terraform e CLI do Azure. |
| Data plane | v1 preview |
v1 |
Spec files | A API do plano de dados controla as operações de inferência e autoria. |
Authentication
O Azure OpenAI oferece dois métodos para autenticação. Você pode usar tanto API Keys quanto Microsoft Entra ID.
Autenticação de Chave API: Para esse tipo de autenticação, todas as requisições de API devem incluir a Chave API no
api-keycabeçalho HTTP. O Quickstart fornece orientações sobre como fazer chamadas com esse tipo de autenticação.Microsoft Entra ID: Você pode autenticar uma chamada API usando um token Microsoft Entra. Tokens de autenticação são incluídos em uma solicitação como cabeçalho Authorization. O token fornecido deve ser precedido porBearer, por exemploBearer YOUR_AUTH_TOKEN. Você pode ler nosso guia prático sobre autenticação com Microsoft Entra ID.
Versionamento da API REST
As APIs de serviço são versionadas usando o api-version parâmetro de consulta. Todas as versões seguem a estrutura de datas YYYY-MM-DD. For example:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência de plano de dados
O restante do artigo aborda a versão prévia 2025-04-01-preview da especificação de inferência de planos de dados do Azure OpenAI.
Se você está procurando documentação sobre a última versão da API GA, consulte a API mais recente de inferência de planos de dados GA
Completions - Create
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | inteiro | Gera best_of conclusãos do lado do servidor e retorna o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.Quando usado com n, best_of controla o número de conclusãos candidatas e n especifica quantas devolver ââ'¬â€œ best_of devem ser maiores que n.Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Repita o prompt além da conclusão | No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. | No | 0 |
| logit_bias | objeto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retorna uma lista dos 5 tokens mais prováveis. A API sempre retorna o logprob do token amostrado, então pode haver até logprobs+1 até elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do seu prompt plus max_tokens não pode exceder o comprimento de contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusãos gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. | No | 0 |
| solicitação | String ou array | O prompt para gerar completações para, codificado como uma string, array de strings, array de tokens ou array de tokens. Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento, então, se um prompt não for especificado, o modelo gera como se fosse do início de um novo documento. |
Yes | |
| seed | inteiro | Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend. |
No | |
| stop | String ou array | Até quatro sequências em que a API para de gerar mais tokens. O texto devolvido não vai conter a sequência de paradas. | No | |
| fluxo | boolean | Se deveria recuar o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem.
Exemplo Python código. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro é suportado apenas para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | createCompletionResponse |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2025-04-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Embeddings - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
Obtenha uma representação vetorial de uma entrada dada que possa ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | O ID de implantação do modelo que foi implantado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dimensions | inteiro | O número de dimensões que os embeddings de saída resultantes devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
No | |
| encoding_format | cadeia | O formato para retornar os embeddings. Pode ser qualquer um ou floatbase64outro. O padrão é .float |
No | |
| entrada | String ou array | Input texto para incorporar, codificado como uma string ou array de tokens. Para incorporar múltiplas entradas em uma única requisição, passe um array de strings ou array de tokens. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma string vazia, e qualquer array deve ter 2.048 dimensões ou menos. |
Yes | |
| input_type | cadeia | Tipo de entrada de busca de embedding a usar | No | |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Examples
Example
Devolva os embeddings para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2025-04-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0020113448
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusão do chat - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
Cria uma conclusão para a mensagem do chat
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. É necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ format | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16. Valores possíveis: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | matriz | As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam. Essa especificação extra é compatível apenas com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Descontinuado em favor de tool_choice.Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Descontinuado em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se deveria devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo Python código. | Yes | |
| metadados | objeto | Tags e valores definidos pelo desenvolvedor usados para filtrar completações no painel de completações armazenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:["text", "audio"] |
No | |
| n | inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Você será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| previsão | PredictionContent | Configuração para uma Saída Prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| reasoning_effort | enumeração |
Apenas modelos O1 Restringe o esforço no raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low, medium, high |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas, que garantem que o modelo corresponde ao seu esquema JSON fornecido.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Beta. Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend. |
No | |
| stop | String ou array | Até 4 sequências em que a API para de gerar mais tokens. |
No | |
| armazenar | boolean | Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelos. | No | |
| fluxo | boolean | Se ativado, são enviados deltas parciais de mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados assim que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo Python código. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isso quando você define stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. No máximo 128 funções são suportadas. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade logarítmica associada.
logprobs deve ser definido como true se esse parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem a própria aplicação de IA e o usuário final que interage com a aplicação de IA. Esses campos auxiliam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, oferecendo uma abordagem abrangente para proteger suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando Microsoft Defender para Nuvem. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Examples
Example
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão baseada nos dados do Azure Search e na identidade gerenciada atribuída ao sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão baseada em dados vetoriais de imagem do Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão baseada nos dados do vetor de busca do Azure, mensagem do assistente anterior e identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o banco de dados Mongo fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Example
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2025-04-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Transcreve o áudio para a língua de entrada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| modelo | cadeia | ID do modelo a ser usado. As opções são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1, e gpt-4o-transcribe-diarize. |
Yes | |
| arquivo | cadeia | O arquivo de áudio é objeto para transcrever. | Yes | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| solicitação | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades do timestamp devem preencher para essa transcrição.
response_format deve ser configurado verbose_json para usar granularidades de carimbo de tempo. Uma ou ambas essas opções são suportadas: word, ou segment. Nota: Não há latência adicional para carimbos de tempo de segmentos, mas gerar carimbos de data de tempo de palavra gera latência adicional. |
No | ['segment'] |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era um dos text, vtt ou srt). |
Examples
Example
Recebe texto transcrito e metadados associados a partir dos dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Recebe texto transcrito e metadados associados a partir dos dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
Transcreve e traduz áudio de entrada para texto em inglês.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio para traduzir. | Yes | |
| solicitação | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | objeto | |
| text/plain | cadeia | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Examples
Example
Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Example
Obtém texto transcrito em inglês e metadados associados a partir dos dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2025-04-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
Gera áudio a partir do texto de entrada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz para usar na síntese de voz. Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/octet-stream | cadeia |
Examples
Example
Sintetiza o áudio a partir do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2025-04-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de status: 200
{
"body": "101010101"
}
Gerações de imagens - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação de modelo de geração de imagem
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir transparência para o fundo das imagens geradas. Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. | No | auto |
| n | inteiro | O número de imagens a serem geradas. Para dall-e-3, apenas n=1 é suportado. | No | 1 |
| output_compression | inteiro | O nível de compressão (0-100%) para as imagens geradas. Esse parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para modelos da série GPT-image-1. | No | png |
| solicitação | cadeia | Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres para a série gpt-image-1 e 4.000 caracteres para dall-e-3 | Yes | |
| partial_images | inteiro | O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas em streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando configurado para 0, a resposta será uma única imagem enviada em um evento de streaming. Note que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | 0 | |
| fluxo | boolean | Edite a imagem no modo streaming. | no | false |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. Esse parâmetro não é suportado para gpt-image-1modelos da série -que sempre retornam imagens codificadas base64.Valores possíveis: url, b64_json. |
No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| estilo | imageStyle | O estilo das imagens geradas. Só é suportado para DALL-E-3. | No | vivid |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de status: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Examples
Example
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2025-04-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Gerações de imagens - Editar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/edits?api-version=2025-04-01-preview
Edita uma imagem a partir de uma legenda de texto em uma determinada implantação de modelo gpt-image-1
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| deployment-id | caminho | Yes | cadeia | |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: multipart/form-data
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | String ou array | A(s) imagem(ões) a editar. Deve ser um arquivo de imagem suportado ou um array de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 50MB. | Yes | |
| input_fidelity | cadeia | Controle quanto esforço o modelo fará para combinar com o estilo e as características, especialmente as características faciais, das imagens de entrada. Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. Suportes high e low. |
no |
low. |
| máscara | cadeia | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. | No | |
| n | inteiro | O número de imagens a serem geradas. Deve estar entre 1 e 10. | No | 1 |
| solicitação | cadeia | Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| partial_images | O número de imagens parciais a serem geradas. Esse parâmetro é usado para respostas em streaming que retornam imagens parciais. O valor deve estar entre 0 e 3. Quando configurado para 0, a resposta será uma única imagem enviada em um evento de streaming. Note que a imagem final pode ser enviada antes que o número total de imagens parciais seja gerado se a imagem completa for gerada mais rapidamente. | |||
| fluxo | boolean | Edite a imagem no modo streaming. | no | false |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. | No |
Responses
Código de status: 200
Description: Ok
| Content-Type | Type | Description |
|---|---|---|
| application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
| Content-Type | Type | Description |
|---|---|---|
| application/json | dalleErrorResponse |
Lista - Assistentes
Note
A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Devolve uma lista de assistentes.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listAssistantsResponse |
Examples
Example
Devolve uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar - Assistente
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
Crie um assistente com um modelo e instruções.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | Yes | ||
| name | cadeia | O nome da assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2025-04-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Get - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Busca um assistente.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A identidade do assistente para buscar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Busca um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Modifica um assistente.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | A identificação do assistente para modificar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 32.768 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | No | ||
| name | cadeia | O nome da assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Sobrepõe a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | Sobrescrive o armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | assistantObject |
Examples
Example
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Exclua um assistente.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| assistant_id | caminho | Yes | cadeia | O documento do assistente para deletar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteAssistantResponse |
Examples
Example
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar - Thread
Note
A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Crie um tópico.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para começar a conversa. | No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a essa thread. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Cria um fio de condução.
POST https://{endpoint}/openai/threads?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Get - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Recupera um fio.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID do tópico para recuperar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Recupera um fio.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Modifica um tópico.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID do tópico a ser modificado. Apenas os metadata que podem ser modificados. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | threadObject |
Examples
Example
Modifica um tópico.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Apague um tópico.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID do tópico para apagar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteThreadResponse |
Examples
Example
Apaga um tópico.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista - Mensagens
Note
A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Retorna uma lista de mensagens para um determinado tópico.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID das threads às quais as mensagens pertencem. |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| run_id | consulta | No | cadeia | Filtre as mensagens pelo ID da execução que as gerou. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listMessagesResponse |
Examples
Example
List Messages
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
Crie uma mensagem.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID das threads para criar uma mensagem. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| função | cadeia | O papel da entidade que está criando a mensagem. Valores permitidos incluem: - user: Indica que a mensagem foi enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: Indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Crie uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2025-04-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Receba - Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Recupere uma mensagem.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID dos threads aos quais esta mensagem pertence. |
| message_id | caminho | Yes | cadeia | O ID da mensagem para recuperar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Recupere uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
Modifica uma mensagem.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID da thread à qual esta mensagem pertence. |
| message_id | caminho | Yes | cadeia | O ID da mensagem a ser modificado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | messageObject |
Examples
Example
Modificar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2025-04-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar - Thread e Executar
Note
A API dos Assistentes está obsoleta e será aposentada em 26 de agosto de 2026. Use o serviço geralmente disponível Microsoft Foundry Agents. Siga o guia de migração para atualizar suas cargas de trabalho. Learn more.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
Crie uma thread e rode-a em uma única requisição.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | O ID do assistente para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. | No | |
| max_completion_tokens | inteiro | O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | O ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem. |
No | |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isso quando você define stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta. |
No | |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O ID do armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie uma thread e rode-a em uma única requisição.
POST https://{endpoint}/openai/threads/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista - Corridas
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Retorna uma lista de execuções pertencentes a uma thread.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID da thread à qual a execução pertence. |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunsResponse |
Examples
Example
Retorna uma lista de execuções pertencentes a uma thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar - Correr
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
Crie uma corrida.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID da thread a ser executada. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais para incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado de busca do arquivo. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia | Adiciona instruções adicionais ao final das instruções da execução. Isso é útil para modificar o comportamento a cada execução, sem sobrescrever outras instruções. | No | |
| additional_messages | matriz | Adiciona mensagens adicionais ao tópico antes de criar a execução. | No | |
| assistant_id | cadeia | O ID do assistente para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. | No | |
| max_completion_tokens | inteiro | O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | O ID do Modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chama nenhuma ferramenta e, em vez disso, gera uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta. |
No | |
| tools | matriz | Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Crie uma corrida.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2025-04-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Vá - Corra
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Recupera uma corrida.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID das threads que foram executadas. |
| run_id | caminho | Yes | cadeia | O ID da corrida para recuperar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Ele se diverte.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
Modifica uma corrida.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID das threads que foram executadas. |
| run_id | caminho | Yes | cadeia | O ID da execução a ser modificado. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Modifica uma corrida.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2025-04-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar - Saídas de Ferramentas para Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, esse endpoint pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas estiverem concluídas. Todos os resultados devem ser enviados em um único pedido.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID dos threads aos quais essa execução pertence. |
| run_id | caminho | Yes | cadeia | O ID da execução que requer o envio da saída da ferramenta. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Quando uma execução tem e status: "requires_action"required_action.type é submit_tool_outputs, esse endpoint pode ser usado para enviar as saídas das chamadas de ferramenta depois que todas estiverem concluídas. Todos os resultados devem ser enviados em um único pedido.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2025-04-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar - Correr
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Cancela uma sequência que é in_progress.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID do thread ao qual essa execução pertence. |
| run_id | caminho | Yes | cadeia | O ID da corrida para cancelar. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runObject |
Examples
Example
Cancela uma sequência que é in_progress.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista - Passos de Corrida
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Retorna uma lista de passos de execução pertencentes a uma execução.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID da thread ao qual pertencem os passos run e run. |
| run_id | caminho | Yes | cadeia | O ID do run ao qual os passos run pertencem. |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| api-version | consulta | Yes | cadeia | |
| include[] | consulta | No | matriz | Uma lista de campos adicionais para incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado de busca do arquivo. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listRunStepsResponse |
Examples
Example
Retorna uma lista de passos de execução pertencentes a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Passo Vá - Corra
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Pega um degrau de corrida.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| thread_id | caminho | Yes | cadeia | O ID da thread à qual pertence o passo run e run. |
| run_id | caminho | Yes | cadeia | O ID da execução à qual pertence o passo de execução. |
| step_id | caminho | Yes | cadeia | O ID do passo de corrida para recuperar. |
| include[] | consulta | No | matriz | Uma lista de campos adicionais para incluir na resposta. Atualmente, o único valor suportado é step_details.tool_calls[*].file_search.results[*].content buscar o conteúdo do resultado de busca do arquivo. |
| api-version | consulta | Yes | cadeia |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | runStepObject |
Examples
Example
Pega um degrau de corrida.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista - Armazenamentos Vetoriais
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Retorna uma lista de armazenamentos vetoriais.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoresResponse |
Examples
Example
Retorna uma lista de armazenamentos vetoriais.
GET https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar - Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Crie um armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. Aplicável apenas se file_ids estiver não vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para um armazenamento vetorial. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do armazenamento vetorial. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Cria um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Get - Vector Store
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Recupera um armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial para recuperar. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Recupera um armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar - Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Modifica um armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial a ser modificado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração para um armazenamento vetorial. | No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do armazenamento vetorial. | No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreObject |
Examples
Example
Modifica um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Delete - Armazenamento Vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Exclua um armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial para excluir. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreResponse |
Examples
Example
Exclui um armazenamento vetorial.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista - Arquivos de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| filtro | consulta | No | cadeia Valores possíveis: in_progress, completed, failed, cancelled |
Filtre por status do arquivo. Um de in_progress, completed, failed, cancelled. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Create - Arquivo de Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
Crie um arquivo de armazenamento vetorial anexando um Arquivo a um armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial para o qual criar um Arquivo. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. |
No | |
| file_id | cadeia | Um ID de arquivo que o store vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Crie um arquivo de armazenamento vetorial anexando um Arquivo a um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2025-04-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Get - Arquivo de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Recupera um arquivo de armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | O ID do arquivo sendo recuperado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Examples
Example
Recupera um arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir - Arquivo de Armazenamento Vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Exclua um arquivo de armazenamento vetorial. Isso vai remover o arquivo do armazenamento vetorial, mas o arquivo em si não será deletado. Para excluir o arquivo, use o endpoint delete file.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | O ID do arquivo para deletar. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | deleteVectorStoreFileResponse |
Examples
Example
Exclua um arquivo de armazenamento vetorial. Isso vai remover o arquivo do armazenamento vetorial, mas o arquivo em si não será deletado. Para excluir o arquivo, use o endpoint delete file.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Updatevectorstorefileattributes
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2025-04-01-preview
Atualize atributos em um arquivo de armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual o arquivo pertence. |
| file_id | caminho | Yes | cadeia | O ID do arquivo para atualizar atributos. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileObject |
Recuperar conteúdo de arquivo de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}/content?api-version=2025-04-01-preview
Recupere o conteúdo analisado de um arquivo de armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial. |
| file_id | caminho | Yes | cadeia | O ID do arquivo dentro do armazenamento vetorial. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreFileContentResponse |
Armazenamento vetorial de busca
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/search?api-version=2025-04-01-preview
Pesquise em um armazenamento vetorial por blocos relevantes com base em um filtro de consulta e atributos de arquivo.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do vetor store para buscar. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro de Comparação ou Filtro Composto | Um filtro para aplicar baseado nos atributos do arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem detidos. Esse número deve estar entre 1 e 50 inclusive. | No | 10 |
| consulta | String ou array | Uma string de consulta para uma busca | Yes | |
| ranking_options | objeto | Opções de classificação para busca. | No | |
| └─ ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se reescrever a consulta em linguagem natural para busca vetorial. | No | False |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | VectorStoreSearchResultsPage |
Create - Lote de Arquivo de Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
Crie um lote de arquivo de armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial para o qual criar um File Batch. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. |
Yes |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Crie um lote de arquivo de armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2025-04-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Get - Lote de Arquivo de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Recupera um lote de arquivo de armazenamento vetorial.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | O ID do lote de arquivos que está sendo recuperado. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Recupera um lote de arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar - Lote de Arquivo de Armazenamento Vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento dos arquivos nesse lote o mais rápido possível.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual o lote de arquivos pertence. |
| batch_id | caminho | Yes | cadeia | O ID do lote de arquivos para cancelar. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | vectorStoreFileBatchObject |
Examples
Example
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento dos arquivos nesse lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista - Arquivos Batch de Armazenamento Vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Retorna uma lista de arquivos de armazenamento vetorial em um lote.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| vector_store_id | caminho | Yes | cadeia | O ID do armazenamento vetorial ao qual os arquivos pertencem. |
| batch_id | caminho | Yes | cadeia | O ID do lote de arquivos ao qual os arquivos pertencem. |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
Ordene pela created_at hora dos objetos.
asc para ordem crescente e desc para ordem decrescente. |
| after | consulta | No | cadeia | Um cursor para uso na paginação.
after é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando em obj_foo, sua chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| before | consulta | No | cadeia | Um cursor para uso na paginação.
before é um ID de objeto que define seu lugar na lista. Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, começando com obj_foo, sua chamada seguinte pode incluir antes=obj_foo para obter a página anterior da lista. |
| filtro | consulta | No | cadeia Valores possíveis: in_progress, completed, failed, cancelled |
Filtre por status do arquivo. Um de in_progress, completed, failed, cancelled. |
| api-version | consulta | Yes | cadeia | api version |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | listVectorStoreFilesResponse |
Examples
Example
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2025-04-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Realtimesession
POST https://{endpoint}/openai/realtimeapi/sessions?api-version=2025-04-01-preview
Crie um token de API efêmero para uso em aplicações do lado do cliente com a API Realtime. Pode ser configurado com os mesmos parâmetros de sessão do session.update evento cliente.
Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token efêmero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada, padrão para desligado e pode ser configurado para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, já que o modelo consome áudio diretamente. A transcrição roda assíncrona pelo endpoint de Transcrições e deve ser tratada como orientação do conteúdo de áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
No | |
| └─ model | cadeia | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
No | |
| └─ prompt | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) eram precedidas para as chamadas de modelo. Esse campo permite que o cliente oriente o modelo nas respostas desejadas. O modelo pode ser orientado sobre conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre comportamento áudio (por exemplo, "fale rápido", "injete emoção na sua voz", "ria frequentemente"). As instruções não são garantidas para serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Note que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e que estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia | Número máximo de tokens de saída para uma resposta de assistente único, incluindo chamadas de ferramenta. Forneça um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um determinado modelo. O padrão é .inf |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"]. |
No | ||
| modelo | cadeia | O nome da implantação usada para esta sessão. |
No | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo em responder.
low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de curva. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
Responses
Código de status: 200
Descrição: Sessão criada com sucesso.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeSessionCreateResponse |
Criar - Transcriptionrealtimesession
POST https://{endpoint}/openai/realtimeapi/transcription_sessions?api-version=2025-04-01-preview
Crie um token de API efêmero para uso em aplicações do lado do cliente com a API em tempo real, especificamente para transcrições em tempo real.
Pode ser configurado com os mesmos parâmetros de sessão do transcription_session.update evento cliente.
Ele responde com um objeto de sessão, além de uma client_secret chave que contém um token efêmero de API utilizável que pode ser usado para autenticar clientes de navegador para a API de Tempo Real.
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a serem incluídos na transcrição. Os itens atualmente disponíveis são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
No | |
| └─ model | enumeração | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo em responder.
low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de curva. Valores possíveis: server_vad, semantic_vad |
No |
Responses
Código de status: 200
Descrição: Sessão criada com sucesso.
| Content-Type | Type | Description |
|---|---|---|
| application/json | RealtimeTranscriptionSessionCreateResponse |
Responses
POST https://{endpoint}/openai/responses?api-version=2025-04-01-preview
Cria uma resposta modelo.
Request Body
Content-Type: application/json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | No | ||
| entrada | String ou array | Model inputs | Yes | |
| instructions | cadeia | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| parallel_tool_calls | boolean | Se permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia | O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. Saiba mais sobre o estado da conversa. |
No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se deve armazenar a resposta do modelo gerado para recuperação posterior via API. |
No | True |
| fluxo | boolean | Se configurado como true, os dados de resposta do modelo serão transmitidos ao cliente conforme são gerados usando eventos enviados pelo servidor. Veja a seção de Streaming abaixo para mais informações. |
No | False |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more: - Entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido.O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam. |
No | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas: Ferramentas fornecidas pela OpenAI que estendem o model's capabilities |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, deixando de lado itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response | |
| text/event-stream | responseStreamEvent |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de Respostas - itens de entrada
GET https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Recupera uma resposta do modelo com o ID fornecido.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | O ID da resposta para recuperar. |
| include | consulta | No | matriz | Campos adicionais para incluir na resposta. Veja o include parâmetro para criação de resposta acima para mais informações. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | response |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
Delete response
DELETE https://{endpoint}/openai/responses/{response_id}?api-version=2025-04-01-preview
Exclui uma resposta do modelo com o ID fornecido.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | O ID da resposta para deletar. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
Código de status: 404
Descrição: Não Encontrado
| Content-Type | Type | Description |
|---|---|---|
| application/json | error |
Código de status: padrão
Descrição: Serviço indisponível
| Content-Type | Type | Description |
|---|---|---|
| application/json | errorResponse |
API de respostas - lista de itens de resposta
GET https://{endpoint}/openai/responses/{response_id}/input_items?api-version=2025-04-01-preview
Retorna uma lista de itens de entrada para uma resposta dada.
URI Parameters
| Name | In | Required | Tipo | Description |
|---|---|---|---|---|
| ponto de extremidade | caminho | Yes | string url | Suportado Azure endpoints OpenAI (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do seu recurso Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| response_id | caminho | Yes | cadeia | O ID da resposta para recuperar itens de entrada para. |
| limit | consulta | No | inteiro | Um limite para o número de objetos a serem retornados. O limite pode variar entre 1 e 100, e o padrão é 20. |
| ordem | consulta | No | cadeia Valores possíveis: asc, desc |
A ordem para retornar os itens de entrada. O padrão é asc.- asc: Devolver os itens de entrada em ordem crescente.- desc: Retorne os itens de entrada em ordem decrescente. |
| after | consulta | No | cadeia | Um ID de item para listar os itens depois, usado na paginação. |
| before | consulta | No | cadeia | Um ID de item para listar itens anteriores, usado na paginação. |
Request Header
Use autenticação baseada em token ou chave API. A autenticação com autenticação baseada em token é recomendada e mais segura.
| Name | Required | Tipo | Description |
|---|---|---|---|
| Authorization | True | cadeia |
Example:Authorization: Bearer {Azure_OpenAI_Auth_Token}Para gerar um token de autenticação usando CLI do Azure: az account get-access-token --resource https://cognitiveservices.azure.comType: oauth2 URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorizeESCOPO: https://ai.azure.com/.default |
| api-key | True | cadeia | Forneça a chave API do Azure OpenAI aqui |
Responses
Código de status: 200
Description: OK
| Content-Type | Type | Description |
|---|---|---|
| application/json | responseItemList |
Components
errorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | error | No |
errorBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | No | ||
| mensagem | cadeia | No |
erro
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | innerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia | No | ||
| tipo | cadeia | No |
innerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. | No |
innerErrorCode
Códigos de erro para o objeto de erro interno.
| Property | Value |
|---|---|
| Description | Códigos de erro para o objeto de erro interno. |
| Type | cadeia |
| Values | ResponsibleAIPolicyViolation |
dalleErrorResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| erro | dalleError | No |
dalleError
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| inner_error | dalleInnerError | Erro interno com detalhes adicionais. | No | |
| param | cadeia | No | ||
| tipo | cadeia | No |
dalleInnerError
Erro interno com detalhes adicionais.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | innerErrorCode | Códigos de erro para o objeto de erro interno. | No | |
| content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. | No | |
| revised_prompt | cadeia | O prompt usado para gerar a imagem, caso houvesse alguma revisão no prompt. | No |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de completação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_end_offset | inteiro | Deslocamento do primeiro ponto de código UTF32 que está excluído do vão. Esse campo é sempre igual a completion_start_offset para vãos vazios. Esse campo é sempre maior que completion_start_offset para vãos não vazios. | Yes | |
| completion_start_offset | inteiro | Deslocamento do ponto de código UTF32 que inicia o vão. | Yes |
contentFilterResultBase
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes |
contentFilterSeverityResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| severity | cadeia | No |
contentFilterDetectedResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detected | boolean | No | ||
| filtered | boolean | Yes |
contentFilterDetectedWithCitationResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| citation | objeto | No | ||
| └─ URL | cadeia | No | ||
| └─ license | cadeia | No |
contentFilterDetectedWithCompletionTextSpansResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No |
contentFilterIdResult
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filtered | boolean | Yes | ||
| id | cadeia | No |
contentFilterResultsBase
Informações sobre os resultados do filtro de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| indirect_attack | contentFilterDetectedResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre textos de terceiros e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| erro | errorBase | No | ||
| hate | contentFilterSeverityResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| protected_material_code | contentFilterDetectedWithCitationResult | No | ||
| protected_material_text | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | No | ||
| violence | contentFilterSeverityResult | No |
contentFilterDetailedResults
Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| details | matriz | No | ||
| filtered | boolean | Yes |
promptFilterResult
Filtragem de conteúdo resulta para um único prompt na solicitação.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. | No | |
| prompt_index | inteiro | No |
promptFilterResults
Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes.
Nenhuma propriedade definida para esse componente.
dalleContentFilterResults
Informações sobre os resultados do filtro de conteúdo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| hate | contentFilterSeverityResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| custom_blocklists | contentFilterDetailedResults | Resultados de filtragem de conteúdo com um detalhe dos IDs de filtro de conteúdo para os segmentos filtrados. | No | |
| hate | contentFilterSeverityResult | No | ||
| jailbreak | contentFilterDetectedResult | No | ||
| profanity | contentFilterDetectedResult | No | ||
| self_harm | contentFilterSeverityResult | No | ||
| sexual | contentFilterSeverityResult | No | ||
| violence | contentFilterSeverityResult | No |
chatCompletionsRequestCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. | No | 0 |
| logit_bias | objeto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados pelo ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. | No | |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode devolver será (4096 - tokens de prompt). Isso não é compatível com modelos da série O1. | No | 4096 |
| metadados | objeto | Tags e valores definidos pelo desenvolvedor usados para filtrar completações no painel de completações armazenadas. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. | No | 0 |
| stop | String ou array | Até 4 sequências em que a API para de gerar mais tokens. | No | |
| armazenar | boolean | Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelos. | No | |
| fluxo | boolean | Se ativado, são enviados deltas parciais de mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados assim que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
No | False |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detectar abusos. | No |
createCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| best_of | inteiro | Gera best_of conclusãos do lado do servidor e retorna o "melhor" (aquele com maior probabilidade logaritária por token). Os resultados não podem ser transmitidos em streaming.Quando usado com n, best_of controla o número de completações candidatas e n especifica quantas devolver.
best_of deve ser maior que n.Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop. |
No | 1 |
| echo | boolean | Repita o prompt além da conclusão |
No | False |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| logit_bias | objeto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
No | None |
| logprobs | inteiro | Inclua as probabilidades logarítmicas dos logprobs tokens de saída mais prováveis, assim como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob do token amostrado, então pode haver até até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
No | None |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do seu prompt plus max_tokens não pode exceder o comprimento de contexto do modelo. |
No | 16 |
| n | inteiro | Quantas conclusãos gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusãos, ele pode rapidamente consumir sua cota de tokens. Use com cuidado e certifique-se de que você tenha configurações razoáveis para max_tokens e stop. |
No | 1 |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| solicitação | String ou array | O(s) prompt(s) para gerar completações para codificados como uma string, array de strings, array de tokens ou array de tokens. Note que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento, então, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Yes | |
| seed | inteiro | Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend. |
No | |
| stop | String ou array | Até 4 sequências em que a API para de gerar mais tokens. O texto devolvido não vai conter a sequência de paradas. |
No | |
| fluxo | boolean | Se deveria recuar o progresso parcial. Se ativados, os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados à medida que ficam disponíveis, com o fluxo terminado por uma data: [DONE] mensagem.
Exemplo Python código. |
No | False |
| suffix | cadeia | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro é suportado apenas para gpt-3.5-turbo-instruct. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. |
No |
createCompletionResponse
Representa uma resposta de conclusão da API. Nota: tanto os objetos de resposta transmitidos quanto os não transmitidos compartilham a mesma forma (diferente do endpoint do chat).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | A lista de escolhas de conclusão que o modelo gerou para o prompt de entrada. | Yes | |
| created | inteiro | O carimbo de tempo do Unix (em segundos) de quando a conclusão foi criada. | Yes | |
| id | cadeia | Um identificador único para a conclusão. | Yes | |
| modelo | cadeia | O modelo usado para a conclusão. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Yes | |
| prompt_filter_results | promptFilterResults | Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração do backend com a qual o modelo roda. Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo. |
No | |
| uso | completionUsage | Estatísticas de uso para a solicitação de conclusão. | No |
createChatCompletionRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Parâmetros para saída de áudio. É necessário quando a saída de áudio é solicitada com modalities: ["audio"]. |
No | |
| └─ format | enumeração | Especifica o formato de áudio de saída. Deve ser um dos wav, mp3, flac, opus, ou pcm16. Valores possíveis: wav, mp3, flac, opus, pcm16 |
No | |
| └─ voice | enumeração | Especifica o tipo de voz. As vozes suportadas são alloy, echo, fable, onyx, nova, e shimmer.Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
No | |
| data_sources | matriz | As entradas de configuração para as extensões de chat do Azure OpenAI que as utilizam. Essa especificação adicional é compatível apenas com o Azure OpenAI. |
No | |
| frequency_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na frequência existente no texto até então, diminuindo a probabilidade do modelo repetir a mesma frase literalmente. |
No | 0 |
| function_call | string ou chatCompletionFunctionCallOption | Descontinuado em favor de tool_choice.Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chama uma função e, em vez disso, gera uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente.
auto é o padrão se as funções estiverem presentes. |
No | |
| functions | matriz | Descontinuado em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
No | |
| logit_bias | objeto | Modificar a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pelo ID do token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de modelo para modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em banimento ou seleção exclusiva do token relevante. |
No | None |
| logprobs | boolean | Se deveria devolver as probabilidades logarítmicas dos tokens de saída ou não. Se for verdadeiro, retorna as probabilidades logarítmicas de cada token de saída retornado no content de message. |
No | False |
| max_completion_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | No | |
| max_tokens | inteiro | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
No | |
| messages | matriz | Uma lista de mensagens que compõem a conversa até agora. Exemplo Python código. | Yes | |
| metadados | objeto | Tags e valores definidos pelo desenvolvedor usados para filtrar completações no painel de completações armazenadas. | No | |
| modalities | ChatCompletionModalities | Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:["text", "audio"] |
No | |
| n | inteiro | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Note que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha-se n para 1 minimizar custos. |
No | 1 |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| previsão | PredictionContent | Configuração para uma Saída Prevista, que pode melhorar muito os tempos de resposta quando grandes partes da resposta do modelo são conhecidas antecipadamente. Isso é mais comum quando você está regenerando um arquivo com apenas pequenas alterações na maior parte do conteúdo. | No | |
| presence_penalty | number | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua aparição no texto até então, aumentando a probabilidade do modelo de falar sobre novos temas. |
No | 0 |
| reasoning_effort | enumeração |
Apenas modelos O1 Restringe o esforço no raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.Valores possíveis: low, medium, high |
No | |
| response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas, que garantem que o modelo corresponde ao seu esquema JSON fornecido.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo é JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| seed | inteiro | Esse recurso está em Beta. Se especificado, nosso sistema faz o melhor esforço para amostrar deterministicamente, de modo que requisições repetidas com os mesmos seed parâmetros e retornem o mesmo resultado.Determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro de resposta para monitorar mudanças no backend. |
No | |
| stop | String ou array | Até 4 sequências em que a API para de gerar mais tokens. |
No | |
| armazenar | boolean | Se devemos ou não armazenar a saída deste pedido de conclusão de chat para uso em nossos produtos de destilação ou avaliação de modelos. | No | |
| fluxo | boolean | Se ativado, são enviados deltas parciais de mensagem, como no ChatGPT. Os tokens são enviados apenas como eventos enviados pelo servidor apenas por dados assim que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo Python código. |
No | False |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isso quando você define stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| tool_choice | chatCompletionToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se as ferramentas estiverem presentes. |
No | |
| tools | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. No máximo 128 funções são suportadas. |
No | |
| top_logprobs | inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade logarítmica associada.
logprobs deve ser definido como true se esse parâmetro for usado. |
No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. |
No | |
| user_security_context | userSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem a própria aplicação de IA e o usuário final que interage com a aplicação de IA. Esses campos auxiliam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, oferecendo uma abordagem abrangente para proteger suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando Microsoft Defender para Nuvem. | No |
userSecurityContext
O contexto de segurança do usuário contém vários parâmetros que descrevem a própria aplicação de IA e o usuário final que interage com a aplicação de IA. Esses campos auxiliam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança, oferecendo uma abordagem abrangente para proteger suas aplicações de IA. Saiba mais sobre como proteger aplicações de IA usando Microsoft Defender para Nuvem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| application_name | cadeia | O nome da inscrição. Informações pessoais sensíveis não devem ser incluídas neste campo. | No | |
| end_user_id | cadeia | Esse identificador é o ID de objeto do usuário Microsoft Entra ID (anteriormente Azure Active Directory), usado para autenticar usuários finais dentro do aplicativo de IA generativa. Informações pessoais sensíveis não devem ser incluídas neste campo. | No | |
| end_user_tenant_id | cadeia | O ID de tenant do Microsoft 365 ao qual o usuário final pertence. É necessário quando a aplicação de IA generativa é multilocatária. | No | |
| source_ip | cadeia | Captura o endereço IP do cliente original, aceitando os formatos IPv4 e IPv6. | No |
chatCompletionFunctions
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON.
Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No |
chatCompletionFunctionCallOption
Especificar uma função específica via {"name": "my_function"} força o modelo a chamar essa função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes |
chatCompletionFunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.
Nenhuma propriedade definida para esse componente.
chatCompletionRequestMessage
Esse componente pode ser um dos seguintes:
- ChatCompletionRequestDeveloperMessage
- chatCompletionRequestSystemMessage
- chatCompletionRequestUserMessage
- chatCompletionRequestAssistantMessage
- chatCompletionRequestToolMessage
- chatCompletionRequestFunctionMessage
ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário.
Com modelos O1 e mais recentes, developer as mensagens substituem as anteriores system .
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do desenvolvedor. | Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso developer.Valores possíveis: developer |
Yes |
chatCompletionRequestSystemMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do sistema. | Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso system.Valores possíveis: system |
Yes |
chatCompletionRequestUserMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do usuário. |
Yes | |
| name | cadeia | Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso user.Valores possíveis: user |
Yes |
chatCompletionRequestAssistantMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls seja especificado ou function_call especificado. |
No | |
| function_call | objeto | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ arguments | cadeia | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| name | cadeia | Um nome opcional para o participante. Fornece informações do modelo para diferenciar entre participantes do mesmo papel. | No | |
| refusal | cadeia | A mensagem de recusa do assistente. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso assistant.Valores possíveis: assistant |
Yes | |
| tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionRequestToolMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo da mensagem da ferramenta. | Yes | |
| função | enumeração | O papel do autor das mensagens, neste caso tool.Valores possíveis: tool |
Yes | |
| tool_call_id | cadeia | Chamada de ferramenta à qual essa mensagem está respondendo. | Yes |
chatCompletionRequestFunctionMessage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem funcional. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes | |
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: function |
Yes |
chatCompletionRequestDeveloperMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestSystemMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Esse componente pode ser um dos seguintes:
- chatCompletionRequestMessageContentPartText
- chatCompletionRequestMessageContentPartImage
- chatCompletionRequestMessageContentPartAudio
chatCompletionRequestAssistantMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Yes | |
| tipo | enumeração | O tipo do conteúdo é a parte. Valores possíveis: text |
Yes |
chatCompletionRequestMessageContentPartAudio
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio | objeto | Yes | ||
| └─ data | cadeia | Dados de áudio codificados em Base64. | No | |
| └─ format | enumeração | O formato dos dados de áudio codificados. Atualmente suporta "wav" e "mp3". Valores possíveis: wav, mp3 |
No | |
| tipo | enumeração | O tipo do conteúdo é a parte. Sempre input_audio.Valores possíveis: input_audio |
Yes |
chatCompletionRequestMessageContentPartImage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_url | objeto | Yes | ||
| └─ detail | enumeração | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. Valores possíveis: auto, low, high |
No | |
| └─ url | cadeia | Ou uma URL da imagem ou os dados da imagem codificada base64. | No | |
| tipo | enumeração | O tipo do conteúdo é a parte. Valores possíveis: image_url |
Yes |
chatCompletionRequestMessageContentPartRefusal
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| tipo | enumeração | O tipo do conteúdo é a parte. Valores possíveis: refusal |
Yes |
azureChatExtensionConfiguration
Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
###Discriminator for azureChatExtensionConfiguration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
azure_search |
azureSearchChatExtensionConfiguration |
azure_cosmos_db |
azureCosmosDBChatExtensionConfiguration |
elasticsearch |
elasticsearchChatExtensionConfiguration |
mongo_db |
mongoDBChatExtensionConfiguration |
pinecone |
pineconeChatExtensionConfiguration |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureChatExtensionType
Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
| Property | Value |
|---|---|
| Description | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
| Type | cadeia |
| Values | azure_searchazure_cosmos_dbelasticsearchmongo_dbpinecone |
azureSearchChatExtensionConfiguration
Uma representação específica das opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureSearchChatExtensionParameters | Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureSearchChatExtensionParameters
Parâmetros para Azure Search quando usados como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. | No | False |
| autenticação | onOOOOSOSOSOSOSeuDataSistemaAssignadoGerenciadoIdentidadeOOAODOSDAODOSDASDAOSNADAOSNDAODAOSNDAODOSNDODOSN.EDADODODAODAOSN.EDAS.E.E.T | Yes | ||
| embedding_dependency | onSeuDataEndpointFonte de Vetorização ou emSeuDataNomeExportaçãoFonte de Vetorização ou onSeuDataDataFonteVectorizaçãoIntegrada | No | ||
| ponto de extremidade | cadeia | O caminho de endpoint absoluto para o recurso do Azure Search usar. | Yes | |
| fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de busca do Azure configurado. | No | |
| filtro | cadeia | Search filter. | No | |
| in_scope | boolean | Se consultas deveriam ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
No | |
| index_name | cadeia | O nome do índice a ser usado como disponível no recurso de pesquisa do Azure referenciado. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. | No | |
| semantic_configuration | cadeia | A configuração semântica adicional para a consulta. | No | |
| strictness | inteiro | A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem destacados para a consulta configurada. | No |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de busca do Azure configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão de separação que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo índice a usar como caminho de arquivo. | No | |
| image_vector_fields | matriz | Os nomes dos campos que representam dados vetoriais de imagem. | No | |
| title_field | cadeia | O nome do campo índice para usar como título. | No | |
| url_field | cadeia | O nome do campo índice a usar como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do Azure OpenAI. |
| Type | cadeia |
| Values | simplesemanticvectorvector_simple_hybridvector_semantic_hybrid |
azureCosmosDBChatExtensionConfiguration
Uma representação específica das opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar extensões do chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. | No | |
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar extensões do chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. | No | False |
| autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Yes | |
| container_name | cadeia | O nome do contêiner de recursos do Azure Cosmos DB. | Yes | |
| database_name | cadeia | O nome do banco de dados MongoDB vCore para usar com o Azure Cosmos DB. | Yes | |
| embedding_dependency | onSeuDataDataEndpointVectorizaçãoFonte ou onSeuDataDeploymentNomeVectorizaçãoFonte | Yes | ||
| fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado. | Yes | |
| in_scope | boolean | Se consultas deveriam ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
No | |
| index_name | cadeia | O nome do índice do MongoDB vCore para usar com o Azure Cosmos DB. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem destacados para a consulta configurada. | No |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso do Azure Cosmos DB configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão de separação que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo índice a usar como caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo índice para usar como título. | No | |
| url_field | cadeia | O nome do campo índice a usar como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
elasticsearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | No | |
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
elasticsearchChatExtensionParameters
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. | No | False |
| autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Yes | ||
| embedding_dependency | onSeuDataEndpointVectorizaçãoFonte ou onTSeuDataImplantaçãoNomeVectorizaçãoFonte ou onSeuDataModeloIdVectorizaçãoFonte | No | ||
| ponto de extremidade | cadeia | O ponto final do Elasticsearch®. | Yes | |
| fields_mapping | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | No | |
| in_scope | boolean | Se consultas deveriam ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
No | |
| index_name | cadeia | O nome do índice Elasticsearch®. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| query_type | elasticsearchQueryType | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | No | |
| strictness | inteiro | A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem destacados para a consulta configurada. | No |
elasticsearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | No | |
| content_fields_separator | cadeia | O padrão de separação que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo índice a usar como caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo índice para usar como título. | No | |
| url_field | cadeia | O nome do campo índice a usar como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | No |
elasticsearchQueryType
O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
| Property | Value |
|---|---|
| Description | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. |
| Type | cadeia |
| Values | simplevector |
mongoDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Banco de Dados Mongo ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar extensões de chat do Azure OpenAI On Your Data ao usar o banco de dados Mongo. | No | |
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar extensões de chat do Azure OpenAI On Your Data ao usar o banco de dados Mongo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. | No | False |
| app_name | cadeia | O nome da aplicação do Banco de Dados Mongo. | Yes | |
| autenticação | onYourDataUsernameAndPasswordAuthenticationOptions | As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. | Yes | |
| collection_name | cadeia | O nome da Coleção Mongo DB. | Yes | |
| database_name | cadeia | O nome do banco de dados Mongo. | Yes | |
| embedding_dependency | onSeuDataDataEndpointVectorizaçãoFonte ou onSeuDataDeploymentNomeVectorizaçãoFonte | Yes | ||
| ponto de extremidade | cadeia | O nome do endpoint do cluster do banco de dados Mongo. | Yes | |
| fields_mapping | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. | Yes | |
| in_scope | boolean | Se consultas deveriam ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
No | |
| index_name | cadeia | O nome do índice da base de dados Mongo. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem destacados para a consulta configurada. | No |
mongoDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão de separação que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo índice a usar como caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo índice para usar como título. | No | |
| url_field | cadeia | O nome do campo índice a usar como URL. | No | |
| vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Yes |
pineconeChatExtensionConfiguration
Uma representação específica das opções configuráveis para o Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| parameters | pineconeChatExtensionParameters | Parâmetros para configurar extensões de chat Azure OpenAI Pinecone. | No | |
| tipo | azureChatExtensionType | Uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar extensões de chat do Azure OpenAI para complementar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Yes |
pineconeChatExtensionParameters
Parâmetros para configurar extensões de chat Azure OpenAI Pinecone.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| allow_partial_result | boolean | Se especificado como verdadeiro, o sistema permitirá que resultados parciais de busca sejam usados e a solicitação falha se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de busca falhar. | No | False |
| autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API. | Yes | |
| embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em um nome interno de implantação de modelo de embeddings no mesmo recurso Azure OpenAI. | Yes | |
| ambiente | cadeia | O nome do ambiente é Pinecone. | Yes | |
| fields_mapping | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. | Yes | |
| in_scope | boolean | Se consultas deveriam ser restritas ao uso de dados indexados. | No | |
| include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não especificado, o valor padrão é citations e intent. |
No | |
| index_name | cadeia | O nome do índice do banco de dados Pinecone. | Yes | |
| max_search_queries | inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de busca para uma mensagem de usuário. Se não especificado, o sistema decidirá o número de consultas a serem enviadas. | No | |
| strictness | inteiro | A rigidez configurada do filtro de relevância de busca. Quanto maior a rigor, maior a precisão, mas menor a recordação da resposta. | No | |
| top_n_documents | inteiro | O número superior configurado de documentos a serem destacados para a consulta configurada. | No |
pineconeFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Yes | |
| content_fields_separator | cadeia | O padrão de separação que os campos de conteúdo devem usar. | No | |
| filepath_field | cadeia | O nome do campo índice a usar como caminho de arquivo. | No | |
| title_field | cadeia | O nome do campo índice para usar como título. | No | |
| url_field | cadeia | O nome do campo índice a usar como URL. | No |
onYourDataAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data.
Discriminador para onYourDataAuthenticationOptions
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
api_key |
onYourDataApiKeyAuthenticationOptions |
connection_string |
onYourDataConnectionStringAuthenticationOptions |
key_and_key_id |
onYourDataKeyAndKeyIdAuthenticationOptions |
encoded_api_key |
onYourDataEncodedApiKeyAuthenticationOptions |
access_token |
onYourDataAccessTokenAuthenticationOptions |
system_assigned_managed_identity |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions |
user_assigned_managed_identity |
onYourDataUserAssignedManagedIdentityAuthenticationOptions |
username_and_password |
onYourDataUsernameAndPasswordAuthenticationOptions |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataContextProperty
A propriedade de contexto.
| Property | Value |
|---|---|
| Description | A propriedade de contexto. |
| Type | cadeia |
| Values | citationsintentall_retrieved_documents |
onYourDataAuthenticationType
Os tipos de autenticação suportados pelo Azure OpenAI On Your Data.
| Property | Value |
|---|---|
| Description | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. |
| Type | cadeia |
| Values | api_keyconnection_stringkey_and_key_idencoded_api_keyaccess_tokensystem_assigned_managed_identityuser_assigned_managed_identityusername_and_password |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave de API para usar para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| connection_string | cadeia | A cadeia de conexão para usar para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar um par de chave e ID de chave do Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave Elasticsearch para usar na autenticação. | No | |
| key_id | cadeia | O ID da chave Elasticsearch para usar na autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave API codificada em Elasticsearch.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| encoded_api_key | cadeia | A chave de API codificada pelo Elasticsearch para usar na autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar o token de acesso.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| access_token | cadeia | O token de acesso a ser usado para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| managed_identity_resource_id | cadeia | O ID de recurso da identidade gerenciada atribuída pelo usuário para ser usada para autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes |
onYourDataUsernameAndPasswordAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| senha | cadeia | The password. para usar em regime de autenticação. | No | |
| tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados pelo Azure OpenAI On Your Data. | Yes | |
| nome de usuário | cadeia | O nome de usuário a usar para autenticação. | No |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para Azure OpenAI On Your Data com busca vetorial.
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Type Value | Schema |
|---|---|
endpoint |
onYourDataEndpointVectorizationSource |
deployment_name |
onYourDataDeploymentNameVectorizationSource |
integrated |
onYourDataIntegratedVectorizationSource |
model_id |
onYourDataModelIdVectorizationSource |
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. | Yes |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial.
| Property | Value |
|---|---|
| Description | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. |
| Type | cadeia |
| Values | endpointdeployment_nameintegratedmodel_id |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em uma chamada pública de endpoint do Azure OpenAI para embeddings.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | No | ||
| dimensions | inteiro | O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
No | |
| ponto de extremidade | cadeia | Especifica a URL do endpoint de recurso da qual os embeddings devem ser recuperados. Deve estar no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta de versão da API não é permitido. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. | Yes |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, que é baseada em um nome interno de implantação de modelo de embeddings no mesmo recurso Azure OpenAI.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deployment_name | cadeia | Especifica o nome da implantação do modelo a ser usada para vetorização. Essa implantação do modelo deve ser no mesmo recurso Azure OpenAI, mas a On Your Data usará essa implantação do modelo por meio de uma chamada interna em vez de pública, o que permite busca vetorial mesmo em redes privadas. | No | |
| dimensions | inteiro | O número de dimensões que os embeddings devem ter. Só suportado em text-embedding-3 modelos e modelos posteriores. |
No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. | Yes |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido dentro do recurso de busca.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. | Yes |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar busca vetorial, é baseada em um ID de modelo de serviço de busca. Atualmente, é suportado apenas pelo Elasticsearch®.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| model_id | cadeia | Especifica o ID do modelo a ser usado para vetorização. Esse ID de modelo deve ser definido no serviço de busca. | No | |
| tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar vetorização dos dados para uso em busca vetorial. | Yes |
azureChatExtensionsMessageContext
Uma representação das informações adicionais de contexto disponíveis quando extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essa informação de contexto só é preenchida quando se usa uma requisição OpenAI do Azure configurada para usar uma extensão correspondente.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| all_retrieved_documents | matriz | Todos os documentos recuperados. | No | |
| citations | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem assistente na resposta. | No | |
| intenção | cadeia | A intenção detectada do histórico do chat, usada para passar para o próximo turno para manter o contexto. | No |
citation
Informações de citação para uma mensagem de resposta de conclusão de chat.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia | O ID do bloco da multa. | No | |
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| rerank_score | number | A pontuação de reclassificação do documento recuperado. | No | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No |
retrievedDocument
O documento recuperado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_id | cadeia | O ID do bloco da multa. | No | |
| conteúdo | cadeia | O conteúdo da citação. | Yes | |
| data_source_index | inteiro | O índice da fonte de dados. | No | |
| filepath | cadeia | O caminho do arquivo da citação. | No | |
| filter_reason | filterReason | A razão de filtragem do documento recuperado. | No | |
| original_search_score | number | A pontuação original da busca do documento recuperado. | No | |
| rerank_score | number | A pontuação de reclassificação do documento recuperado. | No | |
| search_queries | matriz | As consultas de busca usadas para recuperar o documento. | No | |
| title | cadeia | O título da citação. | No | |
| url | cadeia | A URL da citação. | No |
filterReason
A razão de filtragem do documento recuperado.
| Property | Value |
|---|---|
| Description | A razão de filtragem do documento recuperado. |
| Type | cadeia |
| Values | scorererank |
chatCompletionMessageToolCall
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A função que o modelo chamou. | Yes | |
| └─ arguments | cadeia | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | O ID da chamada de ferramenta. | Yes | |
| tipo | toolCallType | O tipo de chamada de ferramenta, neste caso function. |
Yes |
toolCallType
O tipo de chamada de ferramenta, neste caso function.
| Property | Value |
|---|---|
| Description | O tipo de chamada de ferramenta, neste caso function. |
| Type | cadeia |
| Values | function |
chatCompletionRequestMessageTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | No | |
| tool_call_id | cadeia | Chamada de ferramenta à qual essa mensagem está respondendo. | No |
chatCompletionRequestMessageFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | No | |
| name | cadeia | O conteúdo da mensagem. | No | |
| função | enumeração | O papel do autor das mensagens, neste caso function.Valores possíveis: function |
No |
createChatCompletionResponse
Representa uma resposta de conclusão do chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções para completar o chat. Pode ser mais de um se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de tempo do Unix (em segundos) de quando a conclusão do chat foi criada. | Yes | |
| id | cadeia | Um identificador único para a conclusão do chat. | Yes | |
| modelo | cadeia | O modelo usado para completar o chat. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.Valores possíveis: chat.completion |
Yes | |
| prompt_filter_results | promptFilterResults | Filtrar conteúdo resulta em nenhum ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de diferentes prompts podem chegar em horários ou ordens diferentes. | No | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração do backend com a qual o modelo roda. Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo. |
No | |
| uso | completionUsage | Estatísticas de uso para a solicitação de conclusão. | No |
createChatCompletionStreamResponse
Representa um trecho transmitido de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| choices | matriz | Uma lista de opções para completar o chat. Pode conter mais de um elemento se n for maior que 1. |
Yes | |
| created | inteiro | O carimbo de tempo do Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data. | Yes | |
| id | cadeia | Um identificador único para a conclusão do chat. Cada bloco tem o mesmo ID. | Yes | |
| modelo | cadeia | O modelo para gerar a completude. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk.Valores possíveis: chat.completion.chunk |
Yes | |
| system_fingerprint | cadeia | Essa impressão digital representa a configuração do backend com a qual o modelo roda. Pode ser usado em conjunto com o seed parâmetro de requisição para entender quando mudanças no backend foram feitas que possam impactar o determinismo. |
No |
chatCompletionStreamResponseDelta
Um delta de conclusão do chat gerado por respostas de modelos transmitidos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem do bloco. | No | |
| function_call | objeto | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| └─ arguments | cadeia | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | No | |
| função | enumeração | O papel do autor desta mensagem. Valores possíveis: system, user, assistant, tool |
No | |
| tool_calls | matriz | No |
chatCompletionMessageToolCallChunk
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ arguments | cadeia | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| id | cadeia | O ID da chamada de ferramenta. | No | |
| indexar | inteiro | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, somente function é suportado.Valores possíveis: function |
No |
chatCompletionStreamOptions
Opções para resposta ao streaming. Só define isso quando você define stream: true.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include_usage | boolean | Se ativado, um pedaço adicional será transmitido antes da data: [DONE] mensagem. O usage campo nesse bloco mostra as estatísticas de uso do token para toda a requisição, e o choices campo sempre será um array vazio. Todos os outros chunks também incluirão um usage corpo, mas com valor nulo. |
No |
chatCompletionChoiceLogProbs
Registre as informações de probabilidade para a escolha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Uma lista de tokens de conteúdo de mensagens com informações de probabilidade logarítmica. | Yes | |
| refusal | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade logarítmica. | No |
chatCompletionTokenLogprob
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| bytes | matriz | Uma lista de inteiros representando a representação UTF-8 bytes do token. Útil em casos em que caracteres são representados por múltiplos tokens e suas representações em bytes precisam ser combinadas para gerar a representação correta do texto. Pode ser null se não houver representação em bytes para o token. |
Yes | |
| logprob | number | A probabilidade logarítmica desse token. | Yes | |
| símbolo | cadeia | The token. | Yes | |
| top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade logarítmica, nesta posição do token. Em casos raros, pode haver menos do que o número de solicitados top_logprobs devolvidos. |
Yes |
chatCompletionResponseMessage
Uma mensagem de conclusão do chat gerada pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| audio | objeto | Se a modalidade de saída de áudio for solicitada, esse objeto contém dados sobre a resposta do áudio do modelo. | No | |
| └─ data | cadeia | Bytes de áudio codificados em Base64 gerados pelo modelo, no formato especificado na solicitação. |
No | |
| └─ expires_at | inteiro | O carimbo de tempo do Unix (em segundos) para quando essa resposta de áudio não estará mais acessível no servidor para uso em conversas com múltiplas voltas. |
No | |
| └─ id | cadeia | Identificador único para essa resposta de áudio. | No | |
| └─ transcript | cadeia | Transcrição do áudio gerado pelo modelo. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| contexto | azureChatExtensionsMessageContext | Uma representação das informações adicionais de contexto disponíveis quando extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essa informação de contexto só é preenchida quando se usa uma requisição OpenAI do Azure configurada para usar uma extensão correspondente. | No | |
| function_call | chatCompletionFunctionCall | Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo. |
No | |
| refusal | cadeia | A mensagem de recusa gerada pelo modelo. | Yes | |
| função | chatCompletionResponseMessageRole | O papel do autor da mensagem de resposta. | Yes | |
| tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | No |
chatCompletionResponseMessageRole
O papel do autor da mensagem de resposta.
| Property | Value |
|---|---|
| Description | O papel do autor da mensagem de resposta. |
| Type | cadeia |
| Values | assistant |
chatCompletionToolChoiceOption
Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica força {"type": "function", "function": {"name": "my_function"}} o modelo a chamá-la.
none é o padrão quando não há ferramentas presentes.
auto é o padrão se as ferramentas estiverem presentes.
Esse componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | Yes | ||
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, somente function é suportado.Valores possíveis: function |
Yes |
ParallelToolCalls
Se deve ativar a chamada paralela de funções durante o uso da ferramenta.
Nenhuma propriedade definida para esse componente.
PredictionContent
Conteúdo de saída estático previsto, como o conteúdo de um arquivo de texto que está sendo regenerado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | String ou array | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornada muito mais rapidamente. | Yes | |
| tipo | enumeração | O tipo de conteúdo previsto que você quer fornecer. Esse tipo atualmente é sempre content.Valores possíveis: content |
Yes |
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para esse componente.
ChatCompletionModalities
Tipos de saída que você gostaria que o modelo gerasse para essa solicitação. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para esse componente.
chatCompletionFunctionCall
Descontinuado e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerados pelo modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos para chamar a função com, conforme gerado pelo modelo em formato JSON. Note que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de funções. Valide os argumentos no seu código antes de chamar sua função. | Yes | |
| name | cadeia | O nome da função a ser chamada. | Yes |
completionUsage
Estatísticas de uso para a solicitação de conclusão.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens na conclusão gerada. | Yes | |
| completion_tokens_details | objeto | Análise dos tokens usados em uma conclusão. | No | |
| └─ accepted_prediction_tokens | inteiro | Ao usar Outputs Previstos, o número de tokens na previsão que apareceu na completação. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio gerados pelo modelo. | No | |
| └─ reasoning_tokens | inteiro | Tokens gerados pelo modelo para raciocínio. | No | |
| └─ rejected_prediction_tokens | inteiro | Ao usar Saídas Previstas, o número de tokens na previsão que não apareceram na completação. No entanto, assim como os tokens de raciocínio, esses tokens ainda são contados no total de tokens de conclusão para fins de faturamento, saída e limites de janela de contexto. | No | |
| prompt_tokens | inteiro | Número de tokens no prompt. | Yes | |
| prompt_tokens_details | objeto | Detalhes dos tokens de prompt. | No | |
| └─ audio_tokens | inteiro | Tokens de entrada de áudio presentes no prompt. | No | |
| └─ cached_tokens | inteiro | O número de tokens de prompt em cache. | No | |
| total_tokens | inteiro | Número total de tokens usados na solicitação (prompt + conclusão). | Yes |
chatCompletionTool
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | FunctionObject | Yes | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, somente function é suportado.Valores possíveis: function |
Yes |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para esse componente.
FunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| name | cadeia | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. | Yes | |
| parameters | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON.
Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
No | |
| strict | boolean | Se deve permitir a adesão estrita ao esquema ao gerar a chamada de função. Se definido como verdadeiro, o modelo seguirá exatamente o esquema definido no parameters campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. |
No | False |
ResponseFormatText
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: textValores possíveis: text |
Yes |
ResponseFormatJsonObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta definido: json_objectValores possíveis: json_object |
Yes |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de Esquema JSON.
Nenhuma propriedade definida para esse componente.
ResponseFormatJsonSchema
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| json_schema | objeto | Yes | ||
| └─ description | cadeia | Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder no formato. | No | |
| └─ name | cadeia | O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. | No | |
| └─ schema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. | No | |
| └─ strict | boolean | Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo sempre seguirá exatamente o esquema definido no schema campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta definido: json_schemaValores possíveis: json_schema |
Yes |
chatCompletionChoiceCommon
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| finish_reason | cadeia | No | ||
| indexar | inteiro | No |
createTranslationRequest
Translation request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio para traduzir. | Yes | |
| solicitação | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format era json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| duration | number | Duration. | No | |
| linguagem | cadeia | Language. | No | |
| segments | matriz | No | ||
| tarefa | cadeia | Tipo de tarefa de áudio. | No | |
| enviar SMS | cadeia | Texto traduzido ou transcrito. | Yes | |
| words | matriz | No |
audioResponseFormat
Define o formato da saída.
| Property | Value |
|---|---|
| Description | Define o formato da saída. |
| Type | cadeia |
| Values | jsontextsrtverbose_jsonvtt |
createTranscriptionRequest
Transcription request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arquivo | cadeia | O arquivo de áudio é objeto para transcrever. | Yes | |
| linguagem | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 melhora a precisão e a latência. | No | |
| solicitação | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. | No | |
| response_format | audioResponseFormat | Define o formato da saída. | No | |
| temperature | number | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Se definido como 0, o modelo usa a probabilidade logarítmica para aumentar automaticamente a temperatura até que certos limiares sejam atingidos. | No | 0 |
| timestamp_granularities[] | matriz | As granularidades do timestamp devem preencher para essa transcrição.
response_format deve ser configurado verbose_json para usar granularidades de carimbo de tempo. Uma ou ambas essas opções são suportadas: word, ou segment. Nota: Não há latência adicional para carimbos de tempo de segmentos, mas gerar carimbos de data de tempo de palavra gera latência adicional. |
No | ['segment'] |
audioSegment
Segmento de transcrição ou tradução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| avg_logprob | number | Probabilidade logarítmica média. | No | |
| compression_ratio | number | Compression ratio. | No | |
| end | number | Deslocamento no final do segmento. | No | |
| id | inteiro | Segment identifier. | No | |
| no_speech_prob | number | Probabilidade de 'sem fala'. | No | |
| seek | number | Deslocamento do segmento. | No | |
| start | number | Início do segmento deslocado. | No | |
| temperature | number | Temperature. | No | |
| enviar SMS | cadeia | Segment text. | No | |
| tokens | matriz | Símbolos do texto. | No |
audioWord
Transcrição ou tradução de palavra.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end | number | Word end offset. | No | |
| start | number | Word start offset. | No | |
| palavra | cadeia | Word | No |
createSpeechRequest
Speech request.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| entrada | cadeia | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Yes | |
| response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
No | |
| speed | number | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0.
1.0 é o padrão. |
No | 1.0 |
| voice | enumeração | A voz para usar na síntese de voz. Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Yes |
imageQuality
A qualidade da imagem que será gerada.
| Property | Value |
|---|---|
| Description | A qualidade da imagem que será gerada. |
| Type | cadeia |
| Default | auto |
| Values | autohighmediumlowhdstandard |
imagesResponseFormat
O formato no qual as imagens geradas são retornadas.
| Property | Value |
|---|---|
| Description | O formato no qual as imagens geradas são retornadas. |
| Type | cadeia |
| Default | url |
| Values | urlb64_json |
imagesOutputFormat
O formato de arquivo no qual as imagens geradas são retornadas. Só é suportado para modelos de série.
| Property | Value |
|---|---|
| Description | O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para modelos da série GPT-image-1. |
| Type | cadeia |
| Default | png |
| Values | pngjpeg |
imageSize
O tamanho das imagens geradas.
| Property | Value |
|---|---|
| Description | O tamanho das imagens geradas. |
| Type | cadeia |
| Default | auto |
| Values | auto1792x10241024x17921024x10241024x15361536x1024 |
imageStyle
O estilo das imagens geradas. Só é suportado para DALL-E-3.
| Property | Value |
|---|---|
| Description | O estilo das imagens geradas. Só é suportado para DALL-E-3. |
| Type | cadeia |
| Default | vivid |
| Values | vividnatural |
imageBackground
Permite definir a transparência para o fundo da(s) imagem(s) gerada(s). Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1.
| Property | Value |
|---|---|
| Description | Permite definir a transparência para o fundo da(s) imagem(s) gerada(s). Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. |
| Type | cadeia |
| Default | auto |
| Values | transparentopaqueauto |
imageGenerationsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| em segundo plano | imageBackground | Permite definir a transparência para o fundo da(s) imagem(s) gerada(s). Esse parâmetro é suportado apenas para modelos da série gpt-imagem-1. | No | auto |
| n | inteiro | O número de imagens a serem geradas. Para dall-e-3, apenas n=1 é suportado. | No | 1 |
| output_compression | inteiro | O nível de compressão (0-100%) para as imagens geradas. Esse parâmetro é suportado apenas para modelos da série gpt-image-1 com o formato de saída jpeg. | No | 100 |
| output_format | imagesOutputFormat | O formato de arquivo no qual as imagens geradas são retornadas. Suportado apenas para modelos da série GPT-image-1. | No | png |
| solicitação | cadeia | Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres para modelos da série gpt-image-1 e 4.000 caracteres para dall-e-3 | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. Só é suportado para DALL-E-3. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| estilo | imageStyle | O estilo das imagens geradas. Só é suportado para DALL-E-3. | No | vivid |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. | No |
imageEditsRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | String ou array | A(s) imagem(ões) a editar. Deve ser um arquivo de imagem suportado ou um array de imagens. Cada imagem deve ser um arquivo png ou jpg com menos de 25MB. | Yes | |
| máscara | cadeia | Uma imagem adicional cujas áreas totalmente transparentes (por exemplo, onde alfa é zero) indica onde a imagem deve ser editada. Se houver várias imagens fornecidas, a máscara será aplicada à primeira imagem. Deve ser um arquivo PNG válido, com menos de 4MB, e ter as mesmas dimensões da imagem. | No | |
| n | inteiro | O número de imagens a serem geradas. | No | 1 |
| solicitação | cadeia | Uma descrição em texto da(s) imagem(s) desejada(s). O comprimento máximo é de 32.000 caracteres. | Yes | |
| quality | imageQuality | A qualidade da imagem que será gerada. | No | auto |
| response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | No | url |
| size | imageSize | O tamanho das imagens geradas. | No | auto |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a monitorar e detectar abusos. | No |
generateImagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created | inteiro | O carimbo de data do unix quando a operação foi criada. | Yes | |
| dados | matriz | Os dados de resultado da operação, se bem-sucedidos | Yes | |
| uso | imageGenerationsUsage | Representa detalhes de uso de tokens para solicitações de geração de imagem. Apenas para modelos da série GPT-image-1. | No |
imageResult
A URL da imagem ou imagem codificada se for bem-sucedida, e um erro caso contrário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| b64_json | cadeia | A imagem codificada base64 | No | |
| content_filter_results | dalleContentFilterResults | Informações sobre os resultados do filtro de conteúdo. | No | |
| prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se ela foi detectada, bem como o nível de gravidade (very_low, baixo, médio, alto que determina a intensidade e o nível de risco do conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de jailbreak e palavrões, se foram detectados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se foi filtrada e seu ID. | No | |
| revised_prompt | cadeia | O prompt usado para gerar a imagem, caso houvesse alguma revisão no prompt. | No | |
| url | cadeia | A URL da imagem. | No |
imageGenerationsUsage
Representa detalhes de uso de tokens para solicitações de geração de imagem. Apenas para modelos da série GPT-image-1.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | No | |
| input_tokens_details | objeto | Uma divisão detalhada dos tokens de entrada. | No | |
| └─ image_tokens | inteiro | O número de tokens de imagem. | No | |
| └─ text_tokens | inteiro | O número de tokens de texto. | No | |
| output_tokens | inteiro | O número de tokens de saída. | No | |
| total_tokens | inteiro | O número total de tokens usados. | No |
linha
Um objeto linha de conteúdo consistindo em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| spans | matriz | Um array de intervalos que representam objetos detectados e suas informações de caixa delimitadora. | Yes | |
| enviar SMS | cadeia | Yes |
span
Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| length | inteiro | O comprimento do intervalo em caracteres, medido em pontos de código Unicode. | Yes | |
| deslocamento | inteiro | O deslocamento do caractere dentro do texto onde o espaço começa. Esse deslocamento é definido como a posição do primeiro caractere do espaço, contando a partir do início do texto como pontos de código Unicode. | Yes | |
| polígono | matriz | Um array de objetos representando pontos no polígono que envolve o objeto detectado. | Yes | |
| enviar SMS | cadeia | O conteúdo do texto do espaço que representa o objeto detectado. | Yes |
runCompletionUsage
Estatísticas de uso relacionadas à corrida. Esse valor será null se a execução não estiver em estado terminal (ou seja, in_progress, queued, etc.).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da corrida. | Yes | |
| prompt_tokens | inteiro | Número de tokens de prompt usados ao longo da execução. | Yes | |
| total_tokens | inteiro | Número total de tokens usados (prompt + completão). | Yes |
runStepCompletionUsage
Estatísticas de uso relacionadas ao passo de corrida. Esse valor será null enquanto o status do passo de corrida for in_progress.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo do passo de corrida. | Yes | |
| prompt_tokens | inteiro | Número de tokens de prompt usados ao longo do passo de execução. | Yes | |
| total_tokens | inteiro | Número total de tokens usados (prompt + completão). | Yes |
assistantsApiResponseFormatOption
Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.
Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.
Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Esse componente pode ser um dos seguintes:
assistantsApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se json_object apenas function tipos tools forem permitidos para a Corrida. Se text o modelo pode retornar texto ou qualquer valor necessário.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | Deve ser um dos text ou json_object. |
No | enviar SMS |
tipo Enum: AssistentesApiRespostaFormato
| Value | Description |
|---|---|
| enviar SMS | |
| json_object |
assistantObject
Representa um assistant que pode chamar o modelo e usar ferramentas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O timestamp do Unix (em segundos) indica quando o assistente foi criado. | Yes | |
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Yes | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Yes | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| modelo | cadeia | ID do modelo a ser usado. | Yes | |
| name | cadeia | O nome da assistente. O comprimento máximo é de 256 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre assistant. |
Yes | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O ID do armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function. |
Yes | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
objeto Enum: AssistenteObjectType
| Value | Description |
|---|---|
| assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | Yes | ||
| name | cadeia | O nome da assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial está ligado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
modifyAssistantRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
No | |
| instructions | cadeia | As instruções do sistema que o assistente usa. O comprimento máximo é de 32.768 caracteres. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | No | ||
| name | cadeia | O nome da assistente. O comprimento máximo é de 256 caracteres. |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Sobrepõe a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | Sobrescrive o armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function. |
No | [] |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
deleteAssistantResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteAssistantResponseState
| Value | Description |
|---|---|
| assistant.deleted |
listAssistantsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
assistantToolsCode
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | O tipo de ferramenta definida: code_interpreter |
Yes |
tipo Enum: assistenteToolsCodeType
| Value | Description |
|---|---|
| code_interpreter |
assistantToolsFileSearch
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Substituições para a ferramenta de busca de arquivos. | No | |
| └─ max_num_results | inteiro | O número máximo de resultados que a ferramenta de busca de arquivos deve gerar. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50 inclusive. Note que a ferramenta de busca de arquivos pode gerar menos do que max_num_results os resultados. |
No | |
| tipo | cadeia | O tipo de ferramenta definida: file_search |
Yes |
tipo Enum: assistenteFerramentasFicheiroBuscaTipo
| Value | Description |
|---|---|
| file_search |
assistantToolsFileSearchTypeOnly
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | O tipo de ferramenta definida: file_search |
Yes |
tipo Enum: assistenteFerramentasFicheiroBuscaTipo
| Value | Description |
|---|---|
| file_search |
assistantToolsFunction
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função. | Yes | |
| └─ description | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | No | |
| └─ name | cadeia | O nome da função a ser chamada. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. | No | |
| └─ parameters | chatCompletionFunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Veja o guia para exemplos e a referência do Esquema JSON para documentação sobre o formato. | No | |
| tipo | cadeia | O tipo de ferramenta definida: function |
Yes |
tipo Enum: assistenteFerramentasFunção
| Value | Description |
|---|---|
| função |
truncationObject
Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| last_messages | inteiro | O número de mensagens mais recentes da thread ao construir o contexto para a execução. | No | |
| tipo | cadeia | A estratégia de truncamento a usar para a thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes do thread. Quando definido como auto, mensagens no meio da thread serão descartadas para se ajustar ao comprimento de contexto do modelo, max_prompt_tokens. |
Yes |
tipo Enum: TruncationType
| Value | Description |
|---|---|
| auto | |
| last_messages |
assistantsApiToolChoiceOption
Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta.
Esse componente pode ser um dos seguintes:
assistantsNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | No | ||
| └─ name | cadeia | O nome da função a ser chamada. | No | |
| tipo | cadeia | O tipo da ferramenta. Se o tipo for function, o nome da função deve ser definido |
Yes |
tipo Enum: AssistentesNomeadosEscolhaFerramenta
| Value | Description |
|---|---|
| função | |
| code_interpreter | |
| file_search |
runObject
Representa uma execução em uma thread.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | O ID do assistente usado para a execução dessa execução. | Yes | |
| cancelled_at | inteiro | O timestamp do Unix (em segundos) para quando a execução foi cancelada. | Yes | |
| completed_at | inteiro | O carimbo de data do Unix (em segundos) para quando a execução foi concluída. | Yes | |
| created_at | inteiro | O carimbo de tempo do Unix (em segundos) para quando a execução foi criada. | Yes | |
| expires_at | inteiro | O timestamp do Unix (em segundos) indica quando a execução vai expirar. | Yes | |
| failed_at | inteiro | O carimbo de data do Unix (em segundos) indica quando a execução falhou. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| incomplete_details | objeto | Detalhes sobre por que a fase está incompleta. Vai ser null se a sequência não estiver incompleta. |
Yes | |
| └─ reason | cadeia | O motivo pelo qual a sequência está incompleta. Isso indicará qual limite específico de tokens foi atingido ao longo da execução. | No | |
| instructions | cadeia | As instruções que o assistente usou para essa corrida. | Yes | |
| last_error | objeto | O último erro associado a essa execução. Vai ser null se não houver erros. |
Yes | |
| └─ code | cadeia | Um de server_error ou rate_limit_exceeded. |
No | |
| └─ message | cadeia | Uma descrição legível para humanos do erro. | No | |
| max_completion_tokens | inteiro | O número máximo de fichas de conclusão especificado para ter sido usado ao longo da execução. |
Yes | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt especificados para ter sido usados ao longo da execução. |
Yes | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| modelo | cadeia | O modelo que o assistente usou nessa execução. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.run. |
Yes | |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| required_action | objeto | Detalhes sobre a ação necessária para continuar a corrida. Vai ser null se não for necessário agir. |
Yes | |
| └─ submit_tool_outputs | objeto | Detalhes sobre as saídas das ferramentas necessárias para que esta execução continue. | No | |
| └─ tool_calls | matriz | Uma lista das chamadas de ferramentas relevantes. | No | |
| └─ type | enumeração | Por enquanto, isso é sempre submit_tool_outputs.Valores possíveis: submit_tool_outputs |
No | |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Yes | |
| started_at | inteiro | O carimbo de tempo do Unix (em segundos) indica quando a execução foi iniciada. | Yes | |
| status | cadeia | O status da sequência, que pode ser , queuedin_progress, requires_action, cancelling, cancelledfailed, completed, , ou expired. |
Yes | |
| temperature | number | A temperatura de amostragem utilizada nesta execução. Se não estiver ativado, o padrão é 1. | No | |
| thread_id | cadeia | O ID das threads que foi executado como parte dessa execução. | Yes | |
| tool_choice | assistantsApiToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta. |
Yes | |
| tools | matriz | A lista de ferramentas que o assistente usou para essa execução. | Yes | [] |
| top_p | number | O valor de amostragem do núcleo usado para essa execução. Se não estiver ativado, o padrão é 1. | No | |
| truncation_strategy | truncationObject | Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Yes | |
| uso | runCompletionUsage | Estatísticas de uso relacionadas à corrida. Esse valor será null se a execução não estiver em estado terminal (ou seja, in_progress, queued, etc.). |
Yes |
object Enum: runObjectType
| Value | Description |
|---|---|
| thread.run | O tipo de objeto run que é sempre thread.run |
status Enum: RunObjectStatus
| Value | Description |
|---|---|
| na fila | O estado enfileirado |
| in_progress | O estado in_progress |
| requires_action | O estado required_action |
| cancelling | O estado de cancelamento |
| cancelled | O estado cancelado |
| failed | O Estado fracassado |
| completed | O estado concluído |
| expired | O estado expirado |
createRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| additional_instructions | cadeia | Adiciona instruções adicionais ao final das instruções da execução. Isso é útil para modificar o comportamento a cada execução, sem sobrescrever outras instruções. | No | |
| additional_messages | matriz | Adiciona mensagens adicionais ao tópico antes de criar a execução. | No | |
| assistant_id | cadeia | O ID do assistente para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. | No | |
| max_completion_tokens | inteiro | O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | O ID do Modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem. |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| tool_choice | assistantsApiToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta. |
No | |
| tools | matriz | Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
listRunsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
modifyRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
submitToolOutputsRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| fluxo | boolean | Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem. |
No | |
| tool_outputs | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Yes |
runToolCallObject
Objetos de chamada de ferramenta
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função. | Yes | |
| └─ arguments | cadeia | Os argumentos que o modelo espera que você passe para a função. | No | |
| └─ name | cadeia | O nome da função. | No | |
| id | cadeia | O ID da chamada de ferramenta. Esse ID deve ser referenciado quando você enviar as saídas da ferramenta usando as saídas de enviar para executar o endpoint. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. |
Yes |
tipo Enum: RunToolCallObjectType
| Value | Description |
|---|---|
| função |
createThreadAndRunRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | O ID do assistente para executar essa execução. | Yes | |
| instructions | cadeia | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento a cada execução. | No | |
| max_completion_tokens | inteiro | O número máximo de fichas de conclusão que podem ser usadas ao longo da corrida. A sequência faz o melhor esforço para usar apenas o número de fichas de conclusão especificado, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de conclusão especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| max_prompt_tokens | inteiro | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A sequência faz o melhor esforço para usar apenas o número de fichas de prompt especificadas, ao longo de várias rodadas da sequência. Se a sequência exceder o número de tokens de prompt especificados, a sequência terminará com o status incomplete. Veja incomplete_details para mais informações. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| modelo | cadeia | O ID dos modelos a serem usados para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Se não, o modelo associado ao assistente será usado. | No | |
| parallel_tool_calls | ParallelToolCalls | Se deve ativar a chamada paralela de funções durante o uso da ferramenta. | No | True |
| response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106então.Configurar para { "type": "json_schema", "json_schema": {...} } ativa ativa Saídas Estruturadas que garantem que o modelo corresponda ao seu esquema JSON fornecido. Saiba mais no guia de Saídas Estruturadas.Configurar para { "type": "json_object" } ativar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON você mesmo via uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaços em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "travada". Note também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
No | |
| fluxo | boolean | Se true, retorna uma sequência de eventos que ocorrem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em estado terminal com uma data: [DONE] mensagem. |
No | |
| stream_options | chatCompletionStreamOptions | Opções para resposta ao streaming. Só define isso quando você define stream: true. |
No | None |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. |
No | 1 |
| conversa | createThreadRequest | No | ||
| tool_choice | assistantsApiToolChoiceOption | Controle qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica, como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} forçar o modelo a chamar essa ferramenta. |
No | |
| tool_resources | objeto | Um conjunto de recursos usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O ID do armazenamento vetorial associado a esse assistente. Pode haver no máximo 1 armazenamento vetorial anexado ao assistente. |
No | |
| tools | matriz | Ignore as ferramentas que o assistente pode usar nessa jogada. Isso é útil para modificar o comportamento a cada execução. | No | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou a temperatura, mas não ambos. |
No | 1 |
| truncation_strategy | truncationObject | Controles de como uma thread será truncada antes da execução. Use isso para controlar a janela de contexto inicial da execução. | No |
threadObject
Representa um thread que contém mensagens.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de tempo do Unix (em segundos) indica quando a thread foi criada. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread. |
Yes | |
| tool_resources | objeto | Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
Yes | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No |
objeto Enum: ThreadObjectType
| Value | Description |
|---|---|
| conversa | O tipo de objeto thread que é sempre thread |
createThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| messages | matriz | Uma lista de mensagens para começar a conversa. | No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivos disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No | |
| └─ vector_stores | matriz | Um ajudante para criar um armazenamento vetorial com file_ids e anexá-lo a essa thread. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No |
modifyThreadRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| tool_resources | objeto | Um conjunto de recursos disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto requer file_search uma lista de IDs de armazenamento vetorial. |
No | |
| └─ code_interpreter | objeto | No | ||
| └─ file_ids | matriz | Uma lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver no máximo 20 arquivos associados à ferramenta. |
No | [] |
| └─ file_search | objeto | No | ||
| └─ vector_store_ids | matriz | O armazenamento vetorial anexado a este tópico. Pode haver no máximo 1 armazenamento vetorial anexado à thread. |
No |
deleteThreadResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteThreadResponseObjectState
| Value | Description |
|---|---|
| thread.deleted | O estado do objeto delete thread response que é thread.deleted |
listThreadsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
messageObject
Representa uma mensagem dentro de um thread.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | Se aplicável, o ID do assistente que escreveu esta mensagem. | Yes | |
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. | Yes | |
| completed_at | inteiro | O carimbo de data do Unix (em segundos) indicava quando a mensagem era concluída. | Yes | |
| conteúdo | matriz | O conteúdo da mensagem em conjunto de texto e/ou imagens. | Yes | |
| created_at | inteiro | O carimbo de data do Unix (em segundos) para quando a mensagem foi criada. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| incomplete_at | inteiro | O carimbo de data e hora do Unix (em segundos) indica quando a mensagem foi marcada como incompleta. | Yes | |
| incomplete_details | objeto | Em uma mensagem incompleta, detalhes sobre o motivo da mensagem estar incompleta. | Yes | |
| └─ reason | cadeia | A razão pela qual a mensagem está incompleta. | No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.message. |
Yes | |
| função | cadeia | A entidade que produziu a mensagem. Um de user ou assistant. |
Yes | |
| run_id | cadeia | Se aplicável, o ID da execução associada à autoria desta mensagem. | Yes | |
| status | cadeia | O status da mensagem, que pode ser , in_progressincomplete, ou completed. |
Yes | |
| thread_id | cadeia | O ID da thread ao qual essa mensagem pertence. | Yes |
object Enum: MessageObjectType
| Value | Description |
|---|---|
| thread.message | O tipo de objeto mensagem que é thread.message |
status Enum: MessageObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| incomplete | |
| completed |
role Enum: MessageObjectRole
| Value | Description |
|---|---|
| usuário | |
| assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objeto | O delta contendo os campos que mudaram na Mensagem. | Yes | |
| └─ content | matriz | O conteúdo da mensagem em conjunto de texto e/ou imagens. | No | |
| └─ role | cadeia | A entidade que produziu a mensagem. Um de user ou assistant. |
No | |
| id | cadeia | O identificador da mensagem, que pode ser referenciado em endpoints da API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.message.delta. |
Yes |
objeto Enum: MessageDeltaObjectType
| Value | Description |
|---|---|
| thread.message.delta |
createMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attachments | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | No | |
| conteúdo | cadeia | O conteúdo da mensagem. | Yes | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| função | cadeia | O papel da entidade que está criando a mensagem. Valores permitidos incluem: - user: Indica que a mensagem foi enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: Indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Yes |
role Enum: CreateMessageRequestRole
| Value | Description |
|---|---|
| usuário | |
| assistente |
modifyMessageRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No |
deleteMessageResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteMessageResponseObject
| Value | Description |
|---|---|
| thread.message.deleted | O estado do objeto delete message response |
listMessagesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
messageContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objeto | Yes | ||
| └─ file_id | cadeia | O ID do arquivo da imagem no conteúdo da mensagem. | No | |
| tipo | cadeia | Sempre image_file. |
Yes |
tipo Enum: MensagemConteúdoImageImageObjectType
| Value | Description |
|---|---|
| image_file | O tipo de arquivo de imagem do conteúdo da mensagem |
messageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | objeto | Yes | ||
| └─ annotations | matriz | No | ||
| └─ value | cadeia | Os dados que compõem o texto. | No | |
| tipo | cadeia | Sempre text. |
Yes |
tipo Enum: mensagemConteúdoTextoObjetoType
| Value | Description |
|---|---|
| enviar SMS | O conteúdo da mensagem texto Tipo de objeto |
messageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para buscar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | Yes | ||
| file_citation | objeto | Yes | ||
| └─ file_id | cadeia | O ID do arquivo específico de onde a citação é atribuída. | No | |
| start_index | inteiro | Yes | ||
| enviar SMS | cadeia | O texto na mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia | Sempre file_citation. |
Yes |
tipo Enum: FileCitationObjectType
| Value | Description |
|---|---|
| file_citation | O tipo de objeto de citação do arquivo |
messageContentTextAnnotationsFilePathObject
Uma URL para o arquivo que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | Yes | ||
| file_path | objeto | Yes | ||
| └─ file_id | cadeia | O ID do arquivo que foi gerado. | No | |
| start_index | inteiro | Yes | ||
| enviar SMS | cadeia | O texto na mensagem que precisa ser substituído. | Yes | |
| tipo | cadeia | Sempre file_path. |
Yes |
tipo Enum: FilePathObjectType
| Value | Description |
|---|---|
| file_path | O tipo de objeto caminho do arquivo |
messageDeltaContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| image_file | objeto | No | ||
| └─ file_id | cadeia | O ID do arquivo da imagem no conteúdo da mensagem. | No | |
| indexar | inteiro | O índice do conteúdo na mensagem. | Yes | |
| tipo | cadeia | Sempre image_file. |
Yes |
tipo Enum: MessageDeltaContentImageFileObjectType
| Value | Description |
|---|---|
| image_file |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | O índice do conteúdo na mensagem. | Yes | |
| enviar SMS | objeto | No | ||
| └─ annotations | matriz | No | ||
| └─ value | cadeia | Os dados que compõem o texto. | No | |
| tipo | cadeia | Sempre text. |
Yes |
tipo Enum: MessageDeltaContentTextObjectType
| Value | Description |
|---|---|
| enviar SMS |
messageDeltaContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para buscar arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | No | ||
| file_citation | objeto | No | ||
| └─ file_id | cadeia | O ID do arquivo específico de onde a citação é atribuída. | No | |
| └─ quote | cadeia | A citação específica no arquivo. | No | |
| indexar | inteiro | O índice da anotação na parte de conteúdo do texto. | Yes | |
| start_index | inteiro | No | ||
| enviar SMS | cadeia | O texto na mensagem que precisa ser substituído. | No | |
| tipo | cadeia | Sempre file_citation. |
Yes |
tipo Enum: MensagemDeltaConteúdoTextoAnotaçõesArquivoCitaçãoObjetoType
| Value | Description |
|---|---|
| file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Uma URL para o arquivo que é gerado quando o assistente usa a code_interpreter ferramenta para gerar um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | No | ||
| file_path | objeto | No | ||
| └─ file_id | cadeia | O ID do arquivo que foi gerado. | No | |
| indexar | inteiro | O índice da anotação na parte de conteúdo do texto. | Yes | |
| start_index | inteiro | No | ||
| enviar SMS | cadeia | O texto na mensagem que precisa ser substituído. | No | |
| tipo | cadeia | Sempre file_path. |
Yes |
tipo Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
| Value | Description |
|---|---|
| file_path |
runStepObject
Representa um passo na execução de uma sequência.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| assistant_id | cadeia | O ID do assistente associado ao passo de corrida. | Yes | |
| cancelled_at | inteiro | O carimbo de tempo do Unix (em segundos) indica quando o passo de execução foi cancelado. | Yes | |
| completed_at | inteiro | O timestamp do Unix (em segundos) indica quando a etapa de execução foi concluída. | Yes | |
| created_at | inteiro | O carimbo de tempo do Unix (em segundos) para quando o passo de execução foi criado. | Yes | |
| expired_at | inteiro | O carimbo de tempo do Unix (em segundos) indica quando o passo de execução expirou. Um passo é considerado expirado se a sequência principal estiver expirada. | Yes | |
| failed_at | inteiro | O carimbo de tempo do Unix (em segundos) indica quando o passo de execução falhou. | Yes | |
| id | cadeia | O identificador do passo de execução, que pode ser referenciado nos endpoints da API. | Yes | |
| last_error | objeto | O último erro associado a esse passo de execução. Vai ser null se não houver erros. |
Yes | |
| └─ code | cadeia | Um de server_error ou rate_limit_exceeded. |
No | |
| └─ message | cadeia | Uma descrição legível para humanos do erro. | No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre assistant.run.step. |
Yes | |
| run_id | cadeia | O ID da run da qual esse passo faz parte. | Yes | |
| status | cadeia | O status da sequência, que pode ser , in_progresscancelled, failed, completed, ou expired. |
Yes | |
| step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes do passo da corrida. | Yes | |
| thread_id | cadeia | O ID das threads que foram executadas. | Yes | |
| tipo | cadeia | O tipo de passo de corrida, que pode ser ou message_creationtool_calls. |
Yes |
objeto Enum: RunStepObjectType
| Value | Description |
|---|---|
| assistant.run.step | O tipo de objeto, que é sempre assistant.run.step |
tipo Enum: RunStepObjectType
| Value | Description |
|---|---|
| message_creation | O passo message_creation corrida |
| tool_calls | O passo tool_calls corrida |
status Enum: RunStepObjectStatus
| Value | Description |
|---|---|
| in_progress | O status da in_progress |
| cancelled | Status da temporada cancelada |
| failed | Status da temporada cancelada |
| completed | Status da temporada cancelada |
| expired | Status da temporada cancelada |
runStepDeltaObject
Representa um delta de passo de corrida, ou seja, quaisquer campos alterados em um passo de execução durante o streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | objeto | O delta contendo os campos que mudaram no passo de execução. | Yes | |
| └─ step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes do passo da corrida. | No | |
| id | cadeia | O identificador do passo de execução, que pode ser referenciado nos endpoints da API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre thread.run.step.delta. |
Yes |
object Enum: RunStepDeltaObjectType
| Value | Description |
|---|---|
| thread.run.step.delta |
listRunStepsResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pelo passo de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objeto | Yes | ||
| └─ message_id | cadeia | O ID da mensagem criada por essa etapa de execução. | No | |
| tipo | cadeia | Sempre message_creation. |
Yes |
tipo Enum: RunStepDetalhesMensagemCriaçãoObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pelo passo de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| message_creation | objeto | No | ||
| └─ message_id | cadeia | O ID da mensagem criada por essa etapa de execução. | No | |
| tipo | cadeia | Sempre message_creation. |
Yes |
tipo Enum: RunStepDeltaStepsMessagesCreationObjectType
| Value | Description |
|---|---|
| message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada de ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma série de chamadas de ferramenta nas quais o passo de execução estava envolvido. Essas podem estar associadas a um de três tipos de ferramentas: code_interpreter, retrieval ou function. |
Yes | |
| tipo | cadeia | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDetailsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada de ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tool_calls | matriz | Uma série de chamadas de ferramenta nas quais o passo de execução estava envolvido. Essas podem estar associadas a um de três tipos de ferramentas: code_interpreter, file_search ou function. |
No | |
| tipo | cadeia | Sempre tool_calls. |
Yes |
tipo Enum: RunStepDeltaStepsToolCallsObjectType
| Value | Description |
|---|---|
| tool_calls |
runStepDetailsToolCallsCodeObject
Detalhes da chamada de ferramenta Code Interpreter em que a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objeto | A definição da chamada ferramenta do Interpretador de Código. | Yes | |
| └─ input | cadeia | A entrada para a ferramenta Code Interpreter chama. | No | |
| └─ outputs | matriz | As saídas da ferramenta Code Interpreter são chamadas. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia | O ID da chamada de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetalhesFerramentaChamadasCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada de ferramenta Code Interpreter em que a etapa de execução estava envolvida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter | objeto | A definição da chamada ferramenta do Interpretador de Código. | No | |
| └─ input | cadeia | A entrada para a ferramenta Code Interpreter chama. | No | |
| └─ outputs | matriz | As saídas da ferramenta Code Interpreter são chamadas. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente. |
No | |
| id | cadeia | O ID da chamada de ferramenta. | No | |
| indexar | inteiro | O índice da chamada de ferramenta no array de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDeltaStepsToolsCallsCodeObjectType
| Value | Description |
|---|---|
| code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
A saída de texto da ferramenta Code Interpreter é chamada como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | A saída de texto da ferramenta Code Interpreter é chamada. | Yes | |
| tipo | cadeia | Sempre logs. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
| Value | Description |
|---|---|
| logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
A saída de texto da ferramenta Code Interpreter é chamada como parte de uma etapa de execução.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| indexar | inteiro | O índice da saída no array de saídas. | Yes | |
| logs | cadeia | A saída de texto da ferramenta Code Interpreter é chamada. | No | |
| tipo | cadeia | Sempre logs. |
Yes |
tipo Enum: RunStepDeltaStepDetalhesFerramentaChamadasCodeSaídaLogsObjetTipo
| Value | Description |
|---|---|
| logs |
runStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objeto | Yes | ||
| └─ file_id | cadeia | O ID do arquivo da imagem. | No | |
| tipo | cadeia | Sempre image. |
Yes |
tipo Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
| Value | Description |
|---|---|
| imagem |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| imagem | objeto | No | ||
| └─ file_id | cadeia | O ID do arquivo da imagem. | No | |
| indexar | inteiro | O índice da saída no array de saídas. | Yes | |
| tipo | cadeia | Sempre image. |
Yes |
tipo Enum: RunStepDeltaStepsToolCallsCodeOutputImageObject
| Value | Description |
|---|---|
| imagem |
runStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Yes | |
| └─ results | matriz | Os resultados da busca no arquivo. | No | |
| id | cadeia | O ID da ferramenta chama objeto. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFileSearchResultObject
Uma instância de resultado da busca de arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo do resultado que foi encontrado. O conteúdo só é incluído se solicitado via parâmetro de consulta de inclusão. | No | |
| file_id | cadeia | O ID do arquivo em que o resultado foi encontrado. | Yes | |
| file_name | cadeia | O nome do arquivo em que esse resultado foi encontrado. | Yes | |
| pontuação | number | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. | Yes |
runStepDeltaStepDetailsToolCallsFileSearchObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Yes | |
| id | cadeia | O ID da ferramenta chama objeto. | No | |
| indexar | inteiro | O índice da chamada de ferramenta no array de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
| Value | Description |
|---|---|
| file_search |
runStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função que foi chamada. | Yes | |
| └─ arguments | cadeia | Os argumentos passaram para a função. | No | |
| └─ name | cadeia | O nome da função. | No | |
| └─ output | cadeia | A saída da função. Isso acontecerá null se os resultados ainda não foram enviados. |
No | |
| id | cadeia | O ID da ferramenta chama objeto. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
runStepDeltaStepDetailsToolCallsFunctionObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| função | objeto | A definição da função que foi chamada. | No | |
| └─ arguments | cadeia | Os argumentos passaram para a função. | No | |
| └─ name | cadeia | O nome da função. | No | |
| └─ output | cadeia | A saída da função. Isso acontecerá null se os resultados ainda não foram enviados. |
No | |
| id | cadeia | O ID da ferramenta chama objeto. | No | |
| indexar | inteiro | O índice da chamada de ferramenta no array de chamadas de ferramenta. | Yes | |
| tipo | cadeia | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Yes |
tipo Enum: RunStepDetailsToolCallsFunctionObjectType
| Value | Description |
|---|---|
| função |
vectorStoreExpirationAfter
A política de expiração para um armazenamento vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| âncora | cadeia | O carimbo de tempo da âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at. |
Yes | |
| days | inteiro | O número de dias após o tempo de ancoragem em que o armazenamento vetorial expirará. | Yes |
âncora Enum: VectorStoreExpirationAfterAnchor
| Value | Description |
|---|---|
| last_active_at | O carimbo de tempo da âncora após o qual a apólice de expiração se aplica. |
vectorStoreObject
Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data do Unix (em segundos) para quando o armazenamento vetorial foi criado. | Yes | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para um armazenamento vetorial. | No | |
| expires_at | inteiro | O carimbo de data do Unix (em segundos) indica quando o armazenamento vetorial expirará. | No | |
| file_counts | objeto | Yes | ||
| └─ cancelled | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ completed | inteiro | O número de arquivos que foram processados com sucesso. | No | |
| └─ failed | inteiro | O número de arquivos que não foram processados. | No | |
| └─ in_progress | inteiro | O número de arquivos que estão sendo processados atualmente. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| last_active_at | inteiro | O carimbo de tempo do Unix (em segundos) indica quando o armazenamento vetorial esteve ativo pela última vez. | Yes | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Yes | |
| name | cadeia | O nome do armazenamento vetorial. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Yes | |
| status | cadeia | O status do armazenamento vetorial, que pode ser , expiredin_progress, ou completed. Um status de completed indica que o armazenamento vetorial está pronto para uso. |
Yes | |
| usage_bytes | inteiro | O número total de bytes usados pelos arquivos no armazenamento vetorial. | Yes |
status Enum: VectorStoreObjectStatus
| Value | Description |
|---|---|
| expired | |
| in_progress | |
| completed |
createVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. Aplicável apenas se file_ids estiver não vazio. |
No | |
| expires_after | vectorStoreExpirationAfter | A política de expiração para um armazenamento vetorial. | No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. |
No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do armazenamento vetorial. | No |
updateVectorStoreRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| expires_after | vectorStoreExpirationAfter | A política de expiração para um armazenamento vetorial. | No | |
| metadados | objeto | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
No | |
| name | cadeia | O nome do armazenamento vetorial. | No |
listVectorStoresResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
deleteVectorStoreResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteVectorStoreResponseObject
| Value | Description |
|---|---|
| vector_store.deleted | O estado de resposta do armazenamento vetorial delete |
vectorStoreFileObject
Uma lista de arquivos anexados a um armazenamento vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. Aplicável apenas se file_ids estiver não vazio. |
No | |
| created_at | inteiro | O carimbo de data do Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. | Yes | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| last_error | objeto | O último erro associado a este arquivo de armazenamento vetorial. Vai ser null se não houver erros. |
Yes | |
| └─ code | cadeia | Um de server_error ou invalid_file ou unsupported_file. |
No | |
| └─ message | cadeia | Uma descrição legível para humanos do erro. | No | |
| objeto | cadeia | O tipo de objeto, que é sempre vector_store.file. |
Yes | |
| status | cadeia | O status do arquivo de armazenamento vetorial, que pode ser , in_progresscompleted, cancelled, ou failed. O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. |
Yes | |
| usage_bytes | inteiro | O uso total de vetores armazena em bytes. Note que isso pode ser diferente do tamanho original do arquivo. | Yes | |
| vector_store_id | cadeia | O ID do armazenamento vetorial ao qual o arquivo está anexado. | Yes |
objeto Enum: VectorStoreFileObjectType
| Value | Description |
|---|---|
| vector_store.file |
status Enum: VectorStoreFileObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
otherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | cadeia | Sempre other. |
Yes |
tipo Enum: OtherChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| other |
staticChunkingStrategyResponseParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | cadeia | Sempre static. |
Yes |
tipo Enum: StaticChunkingStrategyResponseParamType
| Value | Description |
|---|---|
| estático |
staticChunkingStrategy
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunk_overlap_tokens | inteiro | O número de tokens que se sobrepõem entre blocos. O valor padrão é 400.Note que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Yes | |
| max_chunk_size_tokens | inteiro | O número máximo de fichas em cada bloco. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096. |
Yes |
autoChunkingStrategyRequestParam
A estratégia padrão. Essa estratégia atualmente usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Yes |
staticChunkingStrategyRequestParam
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| estático | staticChunkingStrategy | Yes | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Yes |
chunkingStrategyRequestParam
A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia.
Esse componente pode ser um dos seguintes:
createVectorStoreFileRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. |
No | |
| file_id | cadeia | Um ID de arquivo que o store vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. |
Yes |
listVectorStoreFilesResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Yes | ||
| first_id | cadeia | Yes | ||
| has_more | boolean | Yes | ||
| last_id | cadeia | Yes | ||
| objeto | cadeia | Yes |
deleteVectorStoreFileResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| deleted | boolean | Yes | ||
| id | cadeia | Yes | ||
| objeto | cadeia | Yes |
objeto Enum: DeleteVectorStoreFileResponseObject
| Value | Description |
|---|---|
| vector_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um armazenamento vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data do Unix (em segundos) para quando os arquivos de armazenamento vetorial foram criados em lote. | Yes | |
| file_counts | objeto | Yes | ||
| └─ cancelled | inteiro | O número de arquivos que foram cancelados. | No | |
| └─ completed | inteiro | O número de arquivos que foram processados. | No | |
| └─ failed | inteiro | O número de arquivos que não foram processados. | No | |
| └─ in_progress | inteiro | O número de arquivos que estão sendo processados atualmente. | No | |
| └─ total | inteiro | O número total de arquivos. | No | |
| id | cadeia | O identificador, que pode ser referenciado nos endpoints da API. | Yes | |
| objeto | cadeia | O tipo de objeto, que é sempre vector_store.file_batch. |
Yes | |
| status | cadeia | O status dos arquivos de armazenamento vetorial em lote, que pode ser , in_progresscompleted, cancelled ou failed. |
Yes | |
| vector_store_id | cadeia | O ID do armazenamento vetorial ao qual o Arquivo está anexado. | Yes |
objeto Enum: VectorStoreFileBatchObjectType
| Value | Description |
|---|---|
| vector_store.files_batch |
status Enum: VectorStoreFileBatchObjectStatus
| Value | Description |
|---|---|
| in_progress | |
| completed | |
| cancelled | |
| failed |
createVectorStoreFileBatchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, vou usar a auto estratégia. |
No | |
| file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento vetorial deve usar. Útil para ferramentas assim file_search que podem acessar arquivos. |
Yes |
assistantStreamEvent
Representa um evento emitido ao transmitir uma Run.
Cada evento em um fluxo de eventos enviado pelo servidor possui uma event propriedade e:data
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, faz transição para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída, e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma execução, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.
Podemos adicionar eventos adicionais ao longo do tempo, então recomendamos lidar com eventos desconhecidos de forma elegante no seu código.
Esse componente pode ser um dos seguintes:
threadStreamEvent
Esse componente pode ser um dos seguintes:
thread.created
Ocorre quando um novo thread é criado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | threadObject | Representa um thread que contém mensagens. | Yes | |
| evento | cadeia | Yes |
Data: threadObject
Event Enum: ThreadStreamEventEnum
| Value | Description |
|---|---|
| thread.created | O evento criado pelo fio |
runStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova sequência é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventCreated
| Value | Description |
|---|---|
| thread.run.created |
thread.run.queued
Ocorre quando uma sequência passa para um queued status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Event Enum: RunStreamEventQueued
| Value | Description |
|---|---|
| thread.run.queued |
thread.run.in_progress
Ocorre quando uma sequência passa para um in_progress status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma sequência passa para um requires_action status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventNecessitesAction
| Value | Description |
|---|---|
| thread.run.requires_action |
thread.run.completed
Ocorre quando uma execução é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventConcluído
| Value | Description |
|---|---|
| thread.run.completed |
thread.run.failed
Ocorre quando uma tentativa falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventFailed
| Value | Description |
|---|---|
| thread.run.failed |
thread.run.cancelling
Ocorre quando uma sequência passa para um cancelling status.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventCancelling
| Value | Description |
|---|---|
| thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma corrida é cancelada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.cancelled |
thread.run.expired
Ocorre quando uma corrida expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runObject | Representa uma execução em uma thread. | Yes | |
| evento | cadeia | Yes |
Data: runObject
Evento Enum: RunStreamEventExpired
| Value | Description |
|---|---|
| thread.run.expired |
runStepStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando um passo de corrida é criado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCreated
| Value | Description |
|---|---|
| thread.run.step.created |
thread.run.step.in_progress
Ocorre quando um passo de corrida passa para um in_progress estado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventInProgress
| Value | Description |
|---|---|
| thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de um passo de execução estão sendo transmitidas em streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepDeltaObject | Representa um delta de passo de corrida, ou seja, quaisquer campos alterados em um passo de execução durante o streaming. |
Yes | |
| evento | cadeia | Yes |
Data: runStepDeltaObject
Evento Enum: RunStepStreamEventDelta
| Value | Description |
|---|---|
| thread.run.step.delta |
thread.run.step.completed
Ocorre quando um passo de corrida é concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventConcluído
| Value | Description |
|---|---|
| thread.run.step.completed |
thread.run.step.failed
Ocorre quando um passo de corrida falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventFailed
| Value | Description |
|---|---|
| thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando um passo de corrida é cancelado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventCancelled
| Value | Description |
|---|---|
| thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando um passo de corrida expira.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | runStepObject | Representa um passo na execução de uma sequência. |
Yes | |
| evento | cadeia | Yes |
Data: runStepObject
Evento Enum: RunStepStreamEventExpired
| Value | Description |
|---|---|
| thread.run.step.expired |
messageStreamEvent
Esse componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Event Enum: MessageStreamEventCreated
| Value | Description |
|---|---|
| thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem se move para um in_progress estado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Evento Enum: MessageStreamEventInProgress
| Value | Description |
|---|---|
| thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas em streaming.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageDeltaObject | Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming. |
Yes | |
| evento | cadeia | Yes |
Data: messageDeltaObject
Event Enum: MessageStreamEventDelta
| Value | Description |
|---|---|
| thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Evento Enum: MessageStreamEventConcluído
| Value | Description |
|---|---|
| thread.message.completed |
thread.message.incomplete
Ocorre quando uma mensagem termina antes de ser concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | messageObject | Representa uma mensagem dentro de um thread. | Yes | |
| evento | cadeia | Yes |
Data: messageObject
Evento Enum: MensagemFluxEventoIncompleto
| Value | Description |
|---|---|
| thread.message.incomplete |
Annotation
Esse componente pode ser um dos seguintes:
Click
Uma ação de clique.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| button | enumeração | Indica qual botão do mouse foi pressionado durante o clique. Um de left, right, wheel, back, ou forward.Valores possíveis: left, right, wheel, back, forward |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre definida como click.Valores possíveis: click |
Yes | |
| x | inteiro | A coordenada x onde ocorreu o clique. |
Yes | |
| y | inteiro | A coordenada y onde o clique ocorreu. |
Yes |
CodeInterpreterFileOutput
A saída de uma ferramenta interpretadora de código chama que é um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| files | matriz | Yes | ||
| tipo | enumeração | O tipo de saída do arquivo do interpretador de código. Sempre files.Valores possíveis: files |
Yes |
CodeInterpreterTextOutput
A saída de uma ferramenta interpretadora de código chamada é texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| logs | cadeia | Os logs da ferramenta de interpretação de código são chamados. |
Yes | |
| tipo | enumeração | O tipo do texto do interpretador de código sai da saída. Sempre logs.Valores possíveis: logs |
Yes |
CodeInterpreterTool
Uma ferramenta que roda código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_ids | matriz | Os IDs dos arquivos para rodar o código. |
Yes | |
| tipo | enumeração | O tipo da ferramenta interpretadora de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Yes |
CodeInterpreterToolCall
Uma chamada de ferramenta para rodar código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código para rodar. |
Yes | |
| id | cadeia | O ID único da ferramenta interpretadora de código é chamado. |
Yes | |
| results | matriz | Os resultados da chamada de ferramenta interpretador de código. |
Yes | |
| status | enumeração | O status da ferramenta de interpretação de código chamado. Valores possíveis: in_progress, interpreting, completed |
Yes | |
| tipo | enumeração | O tipo de chamada de ferramenta do interpretador de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Yes |
CodeInterpreterToolOutput
Esse componente pode ser um dos seguintes:
ComparisonFilter
Um filtro usado para comparar uma chave de atributo especificada a um dado valor usando uma operação de comparação definida.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| chave | cadeia | A chave é comparar com o valor. | Yes | |
| tipo | enumeração | Especifica o operador de comparação: eq, ne, gt, gte, lt, lte.- eq: igual a- ne: não é igual- gt: maior que- gte: maior ou igual- lt: menos que- lte: menor que ou igualValores possíveis: eq, ne, gt, gte, lt, lte |
Yes | |
| value | string ou número ou booleano | O valor a comparar com a chave de atributos; suporta tipos de string, número ou booleanos. | Yes |
CompoundFilter
Combine múltiplos filtros usando and ou or.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | matriz | Conjunto de filtros para combinar. Itens podem ser ComparisonFilter ou CompoundFilter. |
Yes | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Yes |
ComputerAction
Esse componente pode ser um dos seguintes:
ComputerScreenshotImage
Uma imagem de captura de tela de computador usada com a ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | O identificador de um arquivo enviado que contém a captura de tela. | No | |
| image_url | cadeia | A URL da imagem capturada. | No | |
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade está sempre definida como computer_screenshot.Valores possíveis: computer_screenshot |
Yes |
ComputerTool
Uma ferramenta que controla um computador virtual.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| display_height | number | A altura da tela do computador. |
Yes | |
| display_width | number | A largura da tela do computador. |
Yes | |
| ambiente | enumeração | O tipo de ambiente de computador a ser controlado. Valores possíveis: mac, windows, ubuntu, browser |
Yes | |
| tipo | enumeração | O tipo de ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer-use-preview |
Yes |
ComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. |
Yes | |
| id | cadeia | O ID único da chamada do computador. | Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada do computador. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
Yes | |
| tipo | enumeração | O tipo de chamada no computador. Sempre computer_call.Valores possíveis: computer_call |
Yes |
ComputerToolCallOutput
A saída de uma chamada de ferramenta de computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API foram reconhecidas pelo desenvolvedor. |
No | |
| call_id | cadeia | O ID da chamada de ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia | O ID da saída da chamada da ferramenta de computador. |
No | |
| saída | ComputerScreenshotImage | Uma imagem de captura de tela de computador usada com a ferramenta de uso de computador. |
Yes | |
| status | enumeração | O status da mensagem de entrada. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens de entrada são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de saída da ferramenta de computador chama. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz | As verificações de segurança relatadas pela API foram reconhecidas pelo desenvolvedor. |
No | |
| call_id | cadeia | O ID da chamada de ferramenta de computador que produziu a saída. |
Yes | |
| id | cadeia | O ID único da saída da ferramenta de chamada do computador. |
Yes | |
| saída | ComputerScreenshotImage | Uma imagem de captura de tela de computador usada com a ferramenta de uso de computador. |
Yes | |
| status | enumeração | O status da mensagem de entrada. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens de entrada são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo de saída da ferramenta de computador chama. Sempre computer_call_output.Valores possíveis: computer_call_output |
Yes |
ComputerToolCallSafetyCheck
Uma verificação de segurança pendente para a chamada no computador.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O tipo da verificação de segurança pendente. | Yes | |
| id | cadeia | A identificação da checagem de segurança pendente. | Yes | |
| mensagem | cadeia | Detalhes sobre a verificação de segurança pendente. | Yes |
Content
Conteúdo de entrada e saída multimodais.
Esse componente pode ser um dos seguintes:
Coordinate
Um par de coordenadas x/y, por exemplo, { x: 100, y: 200 }.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| x | inteiro | The x-coordinate. |
Yes | |
| y | inteiro | The y-coordinate. |
Yes |
CreateModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | Modelo usado para gerar as respostas. | No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. . |
No |
createResponse
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | {"$ref": "#/components/schemas/includable/description"} | No | |
| entrada | String ou array | Entradas, texto, imagem ou arquivo para o modelo, usados para gerar uma resposta. | Yes | |
| instructions | cadeia | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e tokens de raciocínio. |
No | |
| parallel_tool_calls | boolean | Se permitir que o modelo execute chamadas de ferramenta em paralelo. |
No | True |
| previous_response_id | cadeia | O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. | No | |
| armazenar | boolean | Se deve armazenar a resposta do modelo gerado para recuperação posterior via API. |
No | True |
| fluxo | boolean | Se configurado como true, os dados de resposta do modelo serão transmitidos ao cliente conforme são gerados usando eventos enviados pelo servidor. | No | False |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more: - entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam. |
No | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará o resposta para se ajustar à janela de contexto ao colocar itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
DoubleClick
Um duplo clique.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de duplo clique, essa propriedade é sempre definida como double_click.Valores possíveis: double_click |
Yes | |
| x | inteiro | A coordenada x onde ocorreu o duplo clique. |
Yes | |
| y | inteiro | A coordenada y onde ocorreu o duplo clique. |
Yes |
Drag
Uma ação de arrasto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| caminho | matriz | Um array de coordenadas que representam o caminho da ação de arrasto. As coordenadas aparecerão como um array de objetos, por exemplo[{ x: 100, y: 200 }, { x: 200, y: 300 }] |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrasto, essa propriedade é sempre definida para drag.Valores possíveis: drag |
Yes |
EasyInputMessage
Uma mensagem entrada no modelo com um papel indicando instruções seguindo a hierarquia. Instruções dadas com o developer papel ou system têm precedência sobre instruções dadas com o user papel. Presume-se que mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | string ou InputMessageContentList | Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta. Também pode conter respostas anteriores de assistentes. |
Yes | |
| função | enumeração | O papel da entrada da mensagem. Um de user, assistant, system, ou developer.Valores possíveis: user, assistant, system, developer |
Yes | |
| tipo | enumeração | O tipo da mensagem de entrada. Sempre message.Valores possíveis: message |
No |
FileCitation
Uma citação para um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | O ID do arquivo. |
Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo da citação do arquivo. Sempre file_citation.Valores possíveis: file_citation |
Yes |
FilePath
Um caminho para um arquivo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_id | cadeia | O ID do arquivo. |
Yes | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. |
Yes | |
| tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path.Valores possíveis: file_path |
Yes |
FileSearchRanker
O ranqueador a usar para a busca de arquivos. Se não for especificado, usará o auto ranqueador.
| Property | Value |
|---|---|
| Description | O ranqueador a usar para a busca de arquivos. Se não for especificado, usará o auto ranqueador. |
| Type | cadeia |
| Values | autodefault_2024_08_21 |
FileSearchTool
Uma ferramenta que busca conteúdo relevante a partir de arquivos enviados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro de Comparação ou Filtro Composto | Um filtro para aplicar baseado nos atributos do arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem detidos. Esse número deve estar entre 1 e 50 inclusive. |
No | |
| ranking_options | objeto | Opções de classificação para busca. | No | |
| └─ ranker | enumeração | O ranqueador a usar para a busca de arquivos. Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | O limiar de pontuação para a busca de arquivos é um número entre 0 e 1. Números próximos de 1 tentarão devolver apenas os resultados mais relevantes, mas podem devolver menos resultados. |
No | 0 |
| tipo | enumeração | O tipo da ferramenta de busca de arquivos. Sempre file_search.Valores possíveis: file_search |
Yes | |
| vector_store_ids | matriz | Os IDs do vetor armazenam para buscar. |
Yes |
FileSearchToolCall
Os resultados de uma chamada de ferramenta de busca de arquivos.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | O ID único da ferramenta de busca de arquivos é chamado. |
Yes | |
| queries | matriz | As consultas usadas para buscar arquivos. |
Yes | |
| results | matriz | Os resultados da ferramenta de busca de arquivos chamam. |
No | |
| status | enumeração | O status da ferramenta de busca de arquivos é chamado. Um de in_progress, searching, incomplete ou failed,Valores possíveis: in_progress, searching, completed, incomplete, failed |
Yes | |
| tipo | enumeração | O tipo que a ferramenta de busca de arquivos chama. Sempre file_search_call.Valores possíveis: file_search_call |
Yes |
FunctionTool
Define uma função no seu próprio código que o modelo pode escolher chamar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição da função. Usado pelo modelo para determinar se chamar ou não a função. |
No | |
| name | cadeia | O nome da função a ser chamada. |
Yes | |
| parameters | objeto | Um objeto de esquema JSON que descreve os parâmetros da função. |
Yes | |
| strict | boolean | Se deve aplicar validação rigorosa de parâmetros. Padrão true. |
Yes | |
| tipo | enumeração | O tipo da ferramenta funcional. Sempre function.Valores possíveis: function |
Yes |
FunctionToolCall
Uma chamada de ferramenta para rodar uma função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Uma sequência JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia | O ID único da chamada de ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | O ID único da ferramenta de função é chamado. |
Yes | |
| name | cadeia | O nome da função a ser executada. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da chamada da ferramenta funcional. Sempre function_call.Valores possíveis: function_call |
Yes |
FunctionToolCallOutput
A saída de uma chamada de ferramenta funcional.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | O ID único da chamada de ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | O ID único da saída da chamada da ferramenta funcional. Preenchido quando esse item é retornado via API. |
No | |
| saída | cadeia | Uma string JSON da saída da chamada de ferramenta de função. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da saída da ferramenta de chamada. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
FunctionToolCallOutputResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| call_id | cadeia | O ID único da chamada de ferramenta de função gerada pelo modelo. |
Yes | |
| id | cadeia | O ID único da saída da ferramenta de chamada de função. |
Yes | |
| saída | cadeia | Uma string JSON da saída da chamada de ferramenta de função. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da saída da ferramenta de chamada. Sempre function_call_output.Valores possíveis: function_call_output |
Yes |
includable
Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são:
-
file_search_call.results: Inclua os resultados da busca da chamada de ferramenta de busca de arquivos. -
message.input_image.image_url: Inclua URLs de imagem da mensagem de entrada. -
computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador.
| Property | Value |
|---|---|
| Description | Especifique dados de saída adicionais para incluir na resposta do modelo. Os valores atualmente suportados são: - file_search_call.results: Inclua os resultados da busca da chamada de ferramenta de busca de arquivos.- message.input_image.image_url: Inclua URLs de imagem da mensagem de entrada.- computer_call_output.output.image_url: Incluir URLs de imagem da saída da chamada do computador. |
| Type | cadeia |
| Values | file_search_call.resultsmessage.input_image.image_urlcomputer_call_output.output.image_url |
InputAudio
Uma entrada de áudio para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio codificados em base64. |
Yes | |
| format | enumeração | O formato dos dados de áudio. Os formatos atualmente suportados são mp3 e wav.Valores possíveis: mp3, wav |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Yes |
InputContent
Esse componente pode ser um dos seguintes:
InputFile
Uma entrada de arquivo para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado ao modelo. |
No | |
| file_id | cadeia | O ID do arquivo a ser enviado ao modelo. |
No | |
| filename | cadeia | O nome do arquivo a ser enviado ao modelo. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Yes |
InputImage
Uma entrada de imagem para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| detail | enumeração | O nível de detalhe da imagem a ser enviada ao modelo. Um de high, low, ou auto. O padrão é .autoValores possíveis: high, low, auto |
Yes | |
| file_id | cadeia | O ID do arquivo a ser enviado ao modelo. |
No | |
| image_url | cadeia | A URL da imagem a ser enviada ao modelo. Uma URL totalmente qualificada ou imagem codificada base64 em uma URL de dados. |
No | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Yes |
InputItem
Esse componente pode ser um dos seguintes:
InputMessage
Uma mensagem entrada no modelo com um papel indicando instruções seguindo a hierarquia. Instruções dadas com o developer papel ou system têm precedência sobre instruções dadas com o user papel.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes conteúdos types. |
Yes | |
| função | enumeração | O papel da entrada da mensagem. Um de user, system, ou developer.Valores possíveis: user, system, developer |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da mensagem de entrada. Sempre definido para message.Valores possíveis: message |
No |
InputMessageContentList
Uma lista de um ou muitos itens de entrada para o modelo, contendo diferentes tipos de conteúdo.
Nenhuma propriedade definida para esse componente.
InputMessageResource
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | InputMessageContentList | Uma lista de um ou vários itens de entrada para o modelo, contendo diferentes conteúdos types. |
Yes | |
| id | cadeia | O ID único da entrada da mensagem. |
Yes | |
| função | enumeração | O papel da entrada da mensagem. Um de user, system, ou developer.Valores possíveis: user, system, developer |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo da mensagem de entrada. Sempre definido para message.Valores possíveis: message |
No |
InputText
Uma entrada de texto para o modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto no modelo. |
Yes | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Yes |
Item
Item de conteúdo usado para gerar uma resposta.
Esse componente pode ser um dos seguintes:
- InputMessage
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutput
- FunctionToolCall
- FunctionToolCallOutput
- ReasoningItem
ItemReference
Um identificador interno para um item referenciar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| id | cadeia | O ID do item para referência. |
Yes | |
| tipo | enumeração | O tipo de item a ser referenciado. Sempre item_reference.Valores possíveis: item_reference |
Yes |
ItemResource
Item de conteúdo usado para gerar uma resposta.
Esse componente pode ser um dos seguintes:
- InputMessageResource
- OutputMessage
- FileSearchToolCall
- ComputerToolCall
- ComputerToolCallOutputResource
- FunctionToolCall
- FunctionToolCallOutputResource
KeyPress
Uma coleção de pressionamentos de teclas que o modelo gostaria de realizar.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| keys | matriz | A combinação de teclas que o modelo está solicitando para ser pressionada. É um array de cordas, cada uma representando uma tonalidade. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de pressionar a tecla, essa propriedade é sempre definida para keypress.Valores possíveis: keypress |
Yes |
Metadata
Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard.
As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres.
Nenhuma propriedade definida para esse componente.
ModelResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| metadados | Metadata | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres. |
No | |
| modelo | cadeia | Modelo usado para gerar as respostas. | No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
No | 1 |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
No | 1 |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. . |
No |
Move
Uma ação de movimento de rato.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimento, essa propriedade é sempre definida como move.Valores possíveis: move |
Yes | |
| x | inteiro | A coordenada x para se mover. |
Yes | |
| y | inteiro | A coordenada Y para se mover. |
Yes |
OutputAudio
Uma saída de áudio do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Dados de áudio codificados em Base64 do modelo. |
Yes | |
| transcrição | cadeia | A transcrição dos dados de áudio do modelo. |
Yes | |
| tipo | enumeração | O tipo de áudio de saída. Sempre output_audio.Valores possíveis: output_audio |
Yes |
OutputContent
Esse componente pode ser um dos seguintes:
OutputItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| ação | ComputerAction | Yes | ||
| arguments | cadeia | Uma sequência JSON dos argumentos a serem passados para a função. |
Yes | |
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. |
Yes | |
| conteúdo | matriz | Raciocínio do conteúdo do texto. |
Yes | |
| id | cadeia | O identificador único do conteúdo de raciocínio. |
Yes | |
| name | cadeia | O nome da função a ser executada. |
Yes | |
| pending_safety_checks | matriz | As verificações de segurança pendentes para a chamada do computador. |
Yes | |
| queries | matriz | As consultas usadas para buscar arquivos. |
Yes | |
| results | matriz | Os resultados da ferramenta de busca de arquivos chamam. |
No | |
| função | enumeração | O papel da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
Yes | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
OutputMessage
Uma mensagem de saída do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | O conteúdo da mensagem de saída. |
Yes | |
| id | cadeia | O ID único da mensagem de saída. |
Yes | |
| função | enumeração | O papel da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Yes | |
| status | enumeração | O status da mensagem de entrada. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens de entrada são retornados via API.Valores possíveis: in_progress, completed, incomplete |
Yes | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: message |
Yes |
OutputText
Uma saída de texto do modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| annotations | matriz | As anotações da saída do texto. |
Yes | |
| enviar SMS | cadeia | O texto que sai do modelo. |
Yes | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Yes |
RealtimeSessionCreateRequest
Configuração de objetos de sessão em tempo real.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada, padrão para desligado e pode ser configurado para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, já que o modelo consome áudio diretamente. A transcrição roda assíncrona pelo endpoint de Transcrições e deve ser tratada como orientação do conteúdo de áudio de entrada, em vez do que exatamente o modelo ouviu. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
No | |
| └─ model | cadeia | O modelo a usar para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1. |
No | |
| └─ prompt | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia". |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) eram precedidas para as chamadas de modelo. Esse campo permite que o cliente oriente o modelo nas respostas desejadas. O modelo pode ser orientado sobre conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre comportamento áudio (por exemplo, "fale rápido", "injete emoção na sua voz", "ria frequentemente"). As instruções não são garantidas para serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Note que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e que estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia | Número máximo de tokens de saída para uma resposta de assistente único, incluindo chamadas de ferramenta. Forneça um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um determinado modelo. O padrão é .inf |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"]. |
No | ||
| modelo | cadeia | O nome da implantação usada para esta sessão. |
No | |
| output_audio_format | enumeração | O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de saída é amostrado a uma taxa de 24kHz.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. Para modelos de áudio, uma temperatura de 0,8 é altamente recomendada para melhor desempenho. |
No | 0.8 |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
No | auto |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo em responder.
low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de curva. Valores possíveis: server_vad, semantic_vad |
No | |
| voice | VoiceIdsShared | No |
RealtimeSessionCreateResponse
Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para as chaves é de um minuto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objeto | Chave efêmera retornada pela API. | Yes | |
| └─ expires_at | inteiro | Carimbo de data e hora de expiração do token. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ value | cadeia | Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente, em vez de um token de API padrão, que deve ser usado apenas no lado do servidor. |
No | |
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw. |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada, padrão para desligado e pode ser configurado para null desligar uma vez ligado. A transcrição de áudio de entrada não é nativa do modelo, já que o modelo consome áudio diretamente. A transcrição é executada assíncrona pelo Whisper e deve ser tratada como orientação aproximada, em vez da representação compreendida pelo modelo. |
No | |
| └─ model | cadeia | O modelo a ser usado para transcrição whisper-1 é o único modelo atualmente suportado. |
No | |
| instructions | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) eram precedidas para as chamadas de modelo. Esse campo permite que o cliente oriente o modelo nas respostas desejadas. O modelo pode ser instruído sobre conteúdo e formato da resposta (por exemplo, "seja extremamente sucinto", "aja amigável", "aqui estão exemplos de boas respostas") e sobre comportamento áudio (ex: "fale rápido", "injete emoção na sua voz", "ria frequentemente"). As instruções não são garantidas para serem seguidas pelo modelo, mas fornecem orientação ao modelo sobre o comportamento desejado. Note que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e que estiverem visíveis no session.created evento no início da sessão. |
No | |
| max_response_output_tokens | inteiro ou cadeia | Número máximo de tokens de saída para uma resposta de assistente único, incluindo chamadas de ferramenta. Forneça um número inteiro entre 1 e 4096 para limitar os tokens de saída, ou inf para o número máximo de tokens disponíveis para um determinado modelo. O padrão é .inf |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"]. |
No | ||
| output_audio_format | cadeia | O formato do áudio de saída. As opções são pcm16, g711_ulaw, ou g711_alaw. |
No | |
| temperature | number | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O padrão é 0,8. |
No | |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, none, required, ou especificar uma função. |
No | |
| tools | matriz | Ferramentas (funções) disponíveis para o modelo. | No | |
| turn_detection | objeto | Configuração para detecção de curva. Pode ser configurado para null desligar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário. |
No | |
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos. |
No | |
| └─ type | cadeia | Só o tipo de detecção de curva server_vad é atualmente suportado. |
No | |
| voice | VoiceIdsShared | No |
RealtimeTranscriptionSessionCreateRequest
Configuração de objetos em tempo real para sessão de transcrição.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| include | matriz | O conjunto de itens a serem incluídos na transcrição. Os itens atualmente disponíveis são: - item.input_audio_transcription.logprobs |
No | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits em taxa de amostragem de 24kHz, um único canal (mono) e ordem de bytes little-endian.Valores possíveis: pcm16, g711_ulaw, g711_alaw |
No | |
| input_audio_noise_reduction | objeto | Configuração para redução de ruído de áudio de entrada. Isso pode ser configurado para null desligar.A redução de ruído filtra o áudio adicionado ao buffer de áudio de entrada antes de ser enviado para o VAD e para o modelo. Filtrar o áudio pode melhorar a precisão da detecção de VAD e de curva (reduzindo falsos positivos) e o desempenho do modelo ao melhorar a percepção do áudio de entrada. |
No | |
| └─ type | enumeração | Tipo de redução de ruído.
near_field é para microfones de conversa próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptops ou salas de conferência.Valores possíveis: near_field, far_field |
No | |
| input_audio_transcription | objeto | Configuração para transcrição de áudio de entrada. O cliente pode, opcionalmente, definir o idioma e solicitar a transcrição, que oferecem orientação adicional ao serviço de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
No | |
| └─ model | enumeração | O modelo a ser usado para transcrição, as opções atuais são gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, e whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-transcribe-diarize, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos, o prompt é uma sequência de texto livre, por exemplo: "espere palavras relacionadas à tecnologia". |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de turno, VAD de servidor ether ou VAD semântico. Isso pode ser configurado para null desligar, caso em que o cliente deve acionar manualmente a resposta do modelo.O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário. O VAD semântico é mais avançado e utiliza um modelo de detecção de curva (em conjunto com o VAD) para estimar semanticamente se o usuário terminou de falar, e então define dinamicamente um timeout baseado nessa probabilidade. Por exemplo, se o áudio do usuário perder o ritmo com uhhm, o modelo marcará baixa probabilidade de fim de turno e esperará mais tempo para que o usuário continue falando. Isso pode ser útil para conversas mais naturais, mas pode ter uma latência maior. |
No | |
| └─ create_response | boolean | Se deve ou não gerar automaticamente uma resposta quando ocorrer um evento de parada VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ eagerness | enumeração | Usado apenas para semantic_vad o modo. A ânsia do modelo em responder.
low Vai esperar mais tempo para o usuário continuar falando, high vai responder mais rápido.
auto é o padrão e é equivalente a medium.Valores possíveis: low, medium, high, auto |
No | |
| └─ interrupt_response | boolean | Se interromper automaticamente qualquer resposta em andamento com saída para a conversa padrão (ou seja, conversation de auto) quando ocorre um evento de início do VAD. Não disponível para sessões de transcrição. |
No | True |
| └─ prefix_padding_ms | inteiro | Usado apenas para server_vad o modo. Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Usado apenas para server_vad o modo. Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Usado apenas para server_vad o modo. Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos. |
No | |
| └─ type | enumeração | Tipo de detecção de curva. Valores possíveis: server_vad, semantic_vad |
No |
RealtimeTranscriptionSessionCreateResponse
Uma nova configuração de sessão de transcrição em tempo real.
Quando uma sessão é criada no servidor via API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para as chaves é de um minuto. Essa propriedade não está presente quando uma sessão é atualizada via API WebSocket.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| client_secret | objeto | Chave efêmera retornada pela API. Só está presente quando a sessão é criada no servidor via API REST. |
Yes | |
| └─ expires_at | inteiro | Carimbo de data e hora de expiração do token. Atualmente, todos os tokens expiram após um minuto. |
No | |
| └─ value | cadeia | Chave efêmera utilizável em ambientes de cliente para autenticar conexões com a API em tempo real. Use isso em ambientes do lado do cliente, em vez de um token de API padrão, que deve ser usado apenas no lado do servidor. |
No | |
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulaw, ou g711_alaw. |
No | |
| input_audio_transcription | objeto | Configuração do modelo de transcrição. |
No | |
| └─ language | cadeia | O idioma do áudio de entrada. Fornecer a linguagem de entrada no formato ISO-639-1 (por exemplo, en) melhora a precisão e a latência. |
No | |
| └─ model | enumeração | O modelo a ser usado para transcrição. Pode ser gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, ou whisper-1.Valores possíveis: gpt-4o-transcribe, gpt-4o-mini-transcribe, gpt-4o-mini-transcribe-2025-12-15, whisper-1 |
No | |
| └─ prompt | cadeia | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder à linguagem do áudio. |
No | |
| modalities | O conjunto de modalidades com as quais o modelo pode responder. Para desativar o áudio, defina isso como ["texto"]. |
No | ||
| turn_detection | objeto | Configuração para detecção de curva. Pode ser configurado para null desligar. O VAD do servidor significa que o modelo detectará o início e o fim da fala com base no volume do áudio e responderá ao final da fala do usuário. |
No | |
| └─ prefix_padding_ms | inteiro | Quantidade de áudio a incluir antes do VAD detectar a fala (em milissegundos). O padrão é 300ms. |
No | |
| └─ silence_duration_ms | inteiro | Duração do silêncio para detectar a parada da fala (em milissegundos). O padrão é 500ms. Com valores mais curtos, o modelo responderá mais rápido, mas pode entrar em pausas curtas do usuário. |
No | |
| └─ threshold | number | Limiar de ativação para VAD (0.0 a 1.0), este padrão é 0.5. Um limiar mais alto exigirá áudio mais alto para ativar o modelo e, portanto, pode ter melhor desempenho em ambientes barulhentos. |
No | |
| └─ type | cadeia | Só o tipo de detecção de curva server_vad é atualmente suportado. |
No |
Reasoning
Opções de configuração para modelos de raciocínio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| Esforço | ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
Yes | meio |
| resumo | enumeração | Um resumo do raciocínio realizado pelo modelo. Isso pode ser útil para depuração e compreensão do processo de raciocínio do modelo. Um de concise ou detailed.Valores possíveis: concise, detailed |
No |
ReasoningItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| conteúdo | matriz | Raciocínio do conteúdo do texto. |
Yes | |
| id | cadeia | O identificador único do conteúdo de raciocínio. |
Yes | |
| status | enumeração | O status do item. Um de in_progress, completed, ou incomplete. Preenchidos quando os itens são retornados via API.Valores possíveis: in_progress, completed, incomplete |
No | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Yes |
Refusal
Uma recusa da modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| refusal | cadeia | A explicação da recusa do modelo. |
Yes | |
| tipo | enumeração | O tipo de recusa. Sempre refusal.Valores possíveis: refusal |
Yes |
response
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| created_at | number | Carimbo de tempo do Unix (em segundos) de quando essa resposta foi criada. |
Yes | |
| erro | ResponseError | Um objeto de erro retornado quando o modelo falha em gerar uma Resposta. |
Yes | |
| id | cadeia | Identificador único para esta Resposta. |
Yes | |
| incomplete_details | objeto | Detalhes sobre por que a resposta está incompleta. |
Yes | |
| └─ reason | enumeração | O motivo pelo qual a resposta está incompleta. Valores possíveis: max_output_tokens, content_filter |
No | |
| instructions | cadeia | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
Yes | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| metadados | Metadata | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres. |
Yes | |
| modelo | cadeia | Modelo usado para gerar as respostas. | Yes | |
| objeto | enumeração | O tipo de objeto desse recurso - sempre definido como response.Valores possíveis: response |
Yes | |
| saída | matriz | Uma variedade de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens no output array dependem da resposta do modelo.- Em vez de acessar o primeiro item do output array e assumir que é uma assistant mensagem com o conteúdo gerado pelo modelo, você pode considerar usar a output_text propriedade onde suportado nos SDKs. |
Yes | |
| output_text | cadeia | Propriedade de conveniência apenas SDK que contém o texto agregado de saída de todos os output_text itens do output array, se houver algum. Suportado nos SDKs de Python e JavaScript. |
No | |
| parallel_tool_calls | boolean | Se permitir que o modelo execute chamadas de ferramenta em paralelo. |
Yes | True |
| previous_response_id | cadeia | O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| status | enumeração | O status da geração de resposta. Um de completed, failed, in_progress, ou incomplete.Valores possíveis: completed, failed, in_progress, incomplete |
No | |
| temperature | number | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos como 0,8 tornam a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornam mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não ambos. |
Yes | 1 |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more: - entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam. |
No | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
Yes | |
| tools | matriz | Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas |
Yes | |
| top_p | number | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10 maiores% são considerados. Geralmente recomendamos alterar isso ou temperature , mas não ambos. |
Yes | 1 |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, deixando de lado itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No | |
| uso | ResponseUsage | Representa detalhes de uso de tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados. |
No | |
| usuário | cadeia | Um identificador único representando seu usuário final, que pode ajudar a OpenAI a monitorar e detectar abusos. . |
No |
ResponseAudioDeltaEvent
Emitido quando há uma resposta parcial de áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | Um pedaço de bytes de áudio de resposta codificada em Base64. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.delta.Valores possíveis: response.audio.delta |
Yes |
ResponseAudioDoneEvent
Emitido quando a resposta de áudio é completa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.done.Valores possíveis: response.audio.done |
Yes |
ResponseAudioTranscriptDeltaEvent
Emitido quando há uma transcrição parcial do áudio.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | A transcrição parcial da resposta em áudio. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.delta.Valores possíveis: response.audio.transcript.delta |
Yes |
ResponseAudioTranscriptDoneEvent
Emitido quando a transcrição completa do áudio é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de evento. Sempre response.audio.transcript.done.Valores possíveis: response.audio.transcript.done |
Yes |
ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um trecho parcial de código é adicionado pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | O trecho parcial de código adicionado pelo interpretador de código. |
Yes | |
| output_index | inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.delta.Valores possíveis: response.code_interpreter_call.code.delta |
Yes |
ResponseCodeInterpreterCallCodeDoneEvent
Emitido quando a saída do fragmento de código é finalizada pelo interpretador de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O trecho final de código produzido pelo interpretador de código. |
Yes | |
| output_index | inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.code.done.Valores possíveis: response.code_interpreter_call.code.done |
Yes |
ResponseCodeInterpreterCallCompletedEvent
Emitido quando a chamada do interpretador de código é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para rodar código. |
Yes | |
| output_index | inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.completed.Valores possíveis: response.code_interpreter_call.completed |
Yes |
ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para rodar código. |
Yes | |
| output_index | inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Yes |
ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está ativamente interpretando o trecho de código.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para rodar código. |
Yes | |
| output_index | inteiro | O índice do item de saída que o interpretador de código chama está em andamento. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Yes |
ResponseCompletedEvent
Emitido quando a resposta do modelo está completa.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.completed.Valores possíveis: response.completed |
Yes |
ResponseContentPartAddedEvent
Emitido quando uma nova parte de conteúdo é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que foi adicionada. |
Yes | |
| item_id | cadeia | O ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Yes |
ResponseContentPartDoneEvent
Emitido quando uma parte de conteúdo é concluída.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice do conteúdo que é feito. |
Yes | |
| item_id | cadeia | O ID do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. |
Yes | |
| part | OutputContent | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.content_part.done.Valores possíveis: response.content_part.done |
Yes |
ResponseCreatedEvent
Um evento que é emitido quando uma resposta é criada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.created.Valores possíveis: response.created |
Yes |
ResponseError
Um objeto de erro retornado quando o modelo falha em gerar uma Resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | ResponseErrorCode | O código de erro da resposta. |
Yes | |
| mensagem | cadeia | Uma descrição legível para humanos do erro. |
Yes |
ResponseErrorCode
O código de erro da resposta.
| Property | Value |
|---|---|
| Description | O código de erro da resposta. |
| Type | cadeia |
| Values | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
ResponseErrorEvent
Emitido quando ocorre um erro.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| codificar | cadeia | O código de erro. |
Yes | |
| mensagem | cadeia | A mensagem de erro. |
Yes | |
| param | cadeia | O parâmetro de erro. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre error.Valores possíveis: error |
Yes |
ResponseFailedEvent
Um evento que é emitido quando uma resposta falha.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.failed.Valores possíveis: response.failed |
Yes |
ResponseFileSearchCallCompletedEvent
Emitido quando uma chamada de busca de arquivo é concluída (resultados encontrados).
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O ID do item de saída que a busca de arquivo chama é iniciado. |
Yes | |
| output_index | inteiro | O índice do item de saída que a busca de arquivo chama é iniciado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.completed.Valores possíveis: response.file_search_call.completed |
Yes |
ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de busca de arquivo é iniciada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O ID do item de saída que a busca de arquivo chama é iniciado. |
Yes | |
| output_index | inteiro | O índice do item de saída que a busca de arquivo chama é iniciado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Yes |
ResponseFileSearchCallSearchingEvent
Emitido quando uma busca de arquivo está atualmente em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item_id | cadeia | O ID do item de saída que a busca de arquivo chama é iniciado. |
Yes | |
| output_index | inteiro | O índice do item de saída que a chamada de busca do arquivo está buscando. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Yes |
ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta parcial de argumentos de chamada de função.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| delta | cadeia | Os argumentos de chamada de função delta que são adicionados. |
Yes | |
| item_id | cadeia | O ID do item de saída ao qual o delta dos argumentos de chamada de função é somado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta dos argumentos de chamada de função é somado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Yes |
ResponseFunctionCallArgumentsDoneEvent
Emitido quando os argumentos de chamada de função são finalizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| item_id | cadeia | A identificação do item. | Yes | |
| output_index | inteiro | O índice do item de saída. | Yes | |
| tipo | enumeração | Valores possíveis: response.function_call_arguments.done |
Yes |
ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Yes |
ResponseIncompleteEvent
Um evento que é emitido quando uma resposta termina como incompleta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| response | response | Yes | ||
| tipo | enumeração | O tipo de evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Yes |
responseItemList
Uma lista de itens de resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Uma lista de itens usados para gerar essa resposta. | Yes | |
| first_id | cadeia | O ID do primeiro item da lista. | Yes | |
| has_more | boolean | Se há mais itens disponíveis. | Yes | |
| last_id | cadeia | O ID do último item da lista. | Yes | |
| objeto | enumeração | O tipo de objeto retornado deve ser list.Valores possíveis: list |
Yes |
ResponseModalities
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere tanto respostas de texto quanto de áudio, você pode usar:
["text", "audio"]
Nenhuma propriedade definida para esse componente.
ResponseModalitiesTextOnly
Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"]
Essa API em breve suportará outras modalidades de saída, incluindo áudio e imagens.
Nenhuma propriedade definida para esse componente.
ResponseOutputItemAddedEvent
Emitido quando um novo item de saída é adicionado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | inteiro | O índice do item de saída que foi adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Yes |
ResponseOutputItemDoneEvent
Emitido quando um item de saída é marcado como concluído.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| item | OutputItem | Yes | ||
| output_index | inteiro | O índice do item de saída marcado como concluído. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_item.done.Valores possíveis: response.output_item.done |
Yes |
ResponseProperties
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| instructions | cadeia | Insere uma mensagem do sistema (ou desenvolvedor) como o primeiro item no contexto do modelo. Ao usar junto com previous_response_id, as instruções de uma resposta anterior não serão transferidas para a próxima resposta. Isso facilita a troca de mensagens do sistema (ou do desenvolvedor) em novas respostas. |
No | |
| max_output_tokens | inteiro | Um limite superior para o número de tokens que podem ser gerados para uma resposta, incluindo tokens de saída visíveis e estado de conversa. |
No | |
| previous_response_id | cadeia | O ID único da resposta anterior ao modelo. Use isso para criar conversas com múltiplas turnos. | No | |
| reasoning | Reasoning | Opções de configuração para modelos de raciocínio. |
No | |
| enviar SMS | objeto | Opções de configuração para uma resposta de texto do modelo. Pode ser texto simples ou dados JSON estruturados. Learn more: - entradas e saídas de texto - Saídas Estruturadas |
No | |
| └─ format | TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar. Configurar { "type": "json_schema" } habilita Structured Outputs, que garante que o modelo corresponda ao seu esquema JSON fornecido. O formato padrão é { "type": "text" } sem opções adicionais.Não recomendado para gpt-4o e modelos mais recentes: Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam. |
No | |
| tool_choice | OpçõesDeEscolhaFerramenta ou TiposDeEscolha de Ferramenta ou FunçãoDeEscolhaFerramenta | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Veja o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar. |
No | |
| tools | matriz | Uma variedade de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.As duas categorias de ferramentas que você pode fornecer ao modelo são: - Ferramentas integradas |
No | |
| truncation | enumeração | A estratégia de truncamento a ser usada para a resposta do modelo. - auto: Se o contexto dessa resposta e das anteriores exceder o tamanho da janela de contexto do modelo, o modelo truncará a resposta para se ajustar à janela de contexto, deixando de lado itens de entrada no meio da conversa. - disabled (padrão): Se uma resposta do modelo exceder o tamanho da janela de contexto para um modelo, a solicitação falhará com um erro 400.Valores possíveis: auto, disabled |
No |
ResponseRefusalDeltaEvent
Emitido quando há um texto de recusa parcial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. |
Yes | |
| delta | cadeia | O texto de recusa que é adicionado. |
Yes | |
| item_id | cadeia | O ID do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Yes |
ResponseRefusalDoneEvent
Emitido quando o texto de recusa é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice do conteúdo da parte onde o texto da recusa está finalizado. |
Yes | |
| item_id | cadeia | O ID do item de saída em que o texto de recusa está finalizado. |
Yes | |
| output_index | inteiro | O índice do item de saída onde o texto de recusa está finalizado. |
Yes | |
| refusal | cadeia | O texto de recusa que está finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.refusal.done.Valores possíveis: response.refusal.done |
Yes |
responseStreamEvent
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | inteiro | O índice da anotação que foi adicionada. |
Yes | |
| arguments | cadeia | Os argumentos de chamada de função. | Yes | |
| codificar | cadeia | O código de erro. |
Yes | |
| code_interpreter_call | CodeInterpreterToolCall | Uma chamada de ferramenta para rodar código. |
Yes | |
| content_index | inteiro | O índice da parte do conteúdo onde o texto está finalizado. |
Yes | |
| delta | cadeia | O texto que foi adicionado. |
Yes | |
| item | OutputItem | O item de saída que foi marcado como concluído. |
Yes | |
| item_id | cadeia | O ID do item de saída em que o conteúdo do texto foi finalizado. |
Yes | |
| mensagem | cadeia | A mensagem de erro. |
Yes | |
| output_index | inteiro | O índice do item de saída onde o conteúdo do texto foi finalizado. |
Yes | |
| param | cadeia | O parâmetro de erro. |
Yes | |
| part | OutputContent | A parte do conteúdo que está feita. |
Yes | |
| refusal | cadeia | O texto de recusa que está finalizado. |
Yes | |
| response | response | A resposta que estava incompleta. |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto que é finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseTextAnnotationDeltaEvent
Emitido quando uma anotação de texto é adicionada.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| anotação | Annotation | Yes | ||
| annotation_index | inteiro | O índice da anotação que foi adicionada. |
Yes | |
| content_index | inteiro | O índice da parte de conteúdo à qual a anotação de texto foi adicionada. |
Yes | |
| item_id | cadeia | O ID do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual a anotação de texto foi adicionada. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.annotation.added.Valores possíveis: response.output_text.annotation.added |
Yes |
ResponseTextDeltaEvent
Emitido quando há um delta adicional de texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o delta de texto foi adicionado. |
Yes | |
| delta | cadeia | O texto que foi adicionado. |
Yes | |
| item_id | cadeia | O ID do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| output_index | inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Yes |
ResponseTextDoneEvent
Emitido quando o conteúdo do texto é finalizado.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte do conteúdo onde o texto está finalizado. |
Yes | |
| item_id | cadeia | O ID do item de saída em que o conteúdo do texto foi finalizado. |
Yes | |
| output_index | inteiro | O índice do item de saída onde o conteúdo do texto foi finalizado. |
Yes | |
| enviar SMS | cadeia | O conteúdo do texto que é finalizado. |
Yes | |
| tipo | enumeração | O tipo de evento. Sempre response.output_text.done.Valores possíveis: response.output_text.done |
Yes |
ResponseUsage
Representa detalhes de uso de tokens, incluindo tokens de entrada, tokens de saída, uma divisão dos tokens de saída e o total de tokens utilizados.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | Yes | |
| output_tokens | inteiro | O número de tokens de saída. | Yes | |
| output_tokens_details | objeto | Uma análise detalhada dos tokens de saída. | Yes | |
| └─ reasoning_tokens | inteiro | O número de tokens de raciocínio. | No | |
| total_tokens | inteiro | O número total de tokens usados. | Yes |
Screenshot
Uma ação de captura de tela.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade está sempre definida como screenshot.Valores possíveis: screenshot |
Yes |
Scroll
Uma ação de rolo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| scroll_x | inteiro | A distância do rolo horizontal. |
Yes | |
| scroll_y | inteiro | A distância de rolagem vertical. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolamento, essa propriedade é sempre definida como scroll.Valores possíveis: scroll |
Yes | |
| x | inteiro | A coordenada x onde o rolo ocorreu. |
Yes | |
| y | inteiro | A coordenada y onde o scroll ocorreu. |
Yes |
StopConfiguration
Até 4 sequências em que a API para de gerar mais tokens. O texto retornado não conterá a sequência de paradas.
Esse componente pode ser um dos seguintes:
TextResponseFormatConfiguration
Um objeto que especifica o formato que o modelo deve gerar.
Configurar { "type": "json_schema" } habilita Saídas Estruturadas, que garantem que o modelo corresponda ao seu esquema JSON fornecido.
O formato padrão é { "type": "text" } sem opções adicionais.
Não recomendado para gpt-4o e modelos mais recentes:
Configurar para { "type": "json_object" } ativar o modo JSON mais antigo, que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferido para modelos que o suportam.
Esse componente pode ser um dos seguintes:
TextResponseFormatJsonSchema
Formato de resposta do esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre Saídas Estruturadas.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| description | cadeia | Uma descrição do que serve o formato de resposta, usada pelo modelo para determinar como responder no formato. |
No | |
| name | cadeia | O nome do formato da resposta. Devem ser de a z, de A a Z, de 0 a 9, ou conter sublinhaduras e traços, com comprimento máximo de 64. |
No | |
| esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de Esquema JSON. | Yes | |
| strict | boolean | Se deve ativar a adesão estrita ao esquema ao gerar a saída. Se definido como verdadeiro, o modelo sempre seguirá exatamente o esquema definido no schema campo. Apenas um subconjunto do Esquema JSON é suportado quando strict é true. |
No | False |
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Yes |
Tool
Esse componente pode ser um dos seguintes:
ToolChoiceFunction
Use essa opção para forçar o modelo a chamar uma função específica.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| name | cadeia | O nome da função a ser chamada. | Yes | |
| tipo | enumeração | Para chamadas de função, o tipo é sempre function.Valores possíveis: function |
Yes |
ToolChoiceOptions
Controle qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
| Property | Value |
|---|---|
| Description | Controle qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas. |
| Type | cadeia |
| Values | noneautorequired |
ToolChoiceTypes
Indica que o modelo deve usar uma ferramenta embutida para gerar uma resposta.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta hospedada que o modelo deve usar. Os valores permitidos são: - file_search- computer_use_previewValores possíveis: file_search, computer_use_preview |
Yes |
Tipo
Uma ação para digitar texto.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O texto para digitar. |
Yes | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definida como type.Valores possíveis: type |
Yes |
UpdateVectorStoreFileAttributesRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números. |
Yes |
UrlCitation
Uma citação para um recurso web usado para gerar uma resposta de modelo.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| end_index | inteiro | O índice do último caractere da citação da URL na mensagem. |
Yes | |
| start_index | inteiro | O índice do primeiro caractere da citação da URL na mensagem. |
Yes | |
| title | cadeia | O título do recurso web. |
Yes | |
| tipo | enumeração | O tipo da citação da URL. Sempre url_citation.Valores possíveis: url_citation |
Yes | |
| url | cadeia | A URL do recurso web. |
Yes |
VectorStoreFileAttributes
Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números.
Nenhuma propriedade definida para esse componente.
VectorStoreFileContentResponse
Representa o conteúdo analisado de um arquivo de armazenamento vetorial.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | Conteúdo analisado do arquivo. | Yes | |
| has_more | boolean | Indica se há mais páginas de conteúdo para buscar. | Yes | |
| next_page | cadeia | O token para a próxima página, se houver. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file_content.pageValores possíveis: vector_store.file_content.page |
Yes |
VectorStoreSearchRequest
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| filters | Filtro de Comparação ou Filtro Composto | Um filtro para aplicar baseado nos atributos do arquivo. | No | |
| max_num_results | inteiro | O número máximo de resultados a serem detidos. Esse número deve estar entre 1 e 50 inclusive. | No | 10 |
| consulta | String ou array | Uma string de consulta para uma busca | Yes | |
| ranking_options | objeto | Opções de classificação para busca. | No | |
| └─ ranker | enumeração | Valores possíveis: auto, default-2024-11-15 |
No | |
| └─ score_threshold | number | No | 0 | |
| rewrite_query | boolean | Se reescrever a consulta em linguagem natural para busca vetorial. | No | False |
VectorStoreSearchResultContentObject
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto retornou da busca. | Yes | |
| tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Yes |
VectorStoreSearchResultItem
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| attributes | VectorStoreFileAttributes | Conjunto de 16 pares-chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos via API ou dashboard. As teclas são strings com comprimento máximo de 64 caracteres. Os valores são cadeias com comprimento máximo de 512 caracteres, booleanos ou números. |
Yes | |
| conteúdo | matriz | Pedaços de conteúdo do arquivo. | Yes | |
| file_id | cadeia | O ID do arquivo de armazenamento vetorial. | Yes | |
| filename | cadeia | O nome do arquivo de armazenamento vetorial. | Yes | |
| pontuação | number | A pontuação de similaridade para o resultado. | Yes |
VectorStoreSearchResultsPage
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | matriz | A lista de itens de resultados de busca. | Yes | |
| has_more | boolean | Indica se há mais resultados para buscar. | Yes | |
| next_page | cadeia | O token para a próxima página, se houver. | Yes | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.pageValores possíveis: vector_store.search_results.page |
Yes | |
| search_query | matriz | Yes |
VoiceIdsShared
Nenhuma propriedade definida para esse componente.
Wait
Uma ação de espera.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definida como wait.Valores possíveis: wait |
Yes |
ReasoningEffort
Restringe o esforço no raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
| Property | Value |
|---|---|
| Description | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores atualmente suportados são low, medium, e high. Reduzir o esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta. |
| Type | cadeia |
| Default | meio |
| Values | lowmediumhigh |
errorEvent
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo de espera.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | error | Yes | ||
| evento | cadeia | Yes |
event Enum: ErrorEventEnum
| Value | Description |
|---|---|
| erro |
doneEvent
Ocorre quando um stream termina.
| Name | Tipo | Description | Required | Default |
|---|---|---|---|---|
| dados | cadeia | Yes | ||
| evento | cadeia | Yes |
evento Enum: DoneEventEnum
| Value | Description |
|---|---|
| done |
data Enum: DoneEventDataEnum
| Value | Description |
|---|---|
| [DONE] |
Next steps
Aprenda sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos underlying que alimentam Azure OpenAI.