Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Versão da API: v1
Variáveis de servidor:
| Variável | Padrão | Descrição |
|---|---|---|
| ponto de extremidade | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
Autenticação
chave de API
Passe uma chave de API com o api-key cabeçalho.
Tokens de autenticação
Passe um token de autenticação com o authorization cabeçalho.
Oauth2authoauth20
Fluxo: implícito
URL de autorização:https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Escopos:
https://ai.azure.com/.default
Lote
Criar lote
POST {endpoint}/openai/v1/batches
Cria e executa um lote de um arquivo carregado de solicitações
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Cabeçalho de solicitação
| Nome | Necessário | Tipo | Descrição |
|---|---|---|---|
| Aceitar | Verdade | cadeia Valores possíveis: application/json |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| completion_window | enumeração | O período no qual o lote deve ser processado. Atualmente, só 24h há suporte.Valores possíveis: 24h |
Sim | |
| ponto de extremidade | enumeração | O ponto de extremidade a ser usado para todas as solicitações no lote. Atualmente /v1/chat/completions , há suporte.Valores possíveis: /v1/chat/completions, /v1/embeddings |
Sim | |
| input_file_id | cadeia | A ID de um arquivo carregado que contém solicitações para o novo lote. Seu arquivo de entrada deve ser formatado como um arquivo JSON, e deve ser carregado com a finalidade batch. |
Não |
Respostas
Código de status: 201
Descrição: a solicitação foi bem-sucedida e um novo recurso foi criado como resultado.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar lotes
GET {endpoint}/openai/v1/batches
Liste os lotes da sua organização.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
Cabeçalho de solicitação
| Nome | Necessário | Tipo | Descrição |
|---|---|---|---|
| Aceitar | Verdade | cadeia Valores possíveis: application/json |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListBatchesResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar lote
GET {endpoint}/openai/v1/batches/{batch_id}
Recupera um lote.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| batch_id | caminho | Sim | cadeia | A ID do lote a ser recuperado. |
Cabeçalho de solicitação
| Nome | Necessário | Tipo | Descrição |
|---|---|---|---|
| Aceitar | Verdade | cadeia Valores possíveis: application/json |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Cancelar lote
POST {endpoint}/openai/v1/batches/{batch_id}/cancel
Cancela um lote em andamento.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| batch_id | caminho | Sim | cadeia | A ID do lote a ser cancelada. |
Cabeçalho de solicitação
| Nome | Necessário | Tipo | Descrição |
|---|---|---|---|
| Aceitar | Verdade | cadeia Valores possíveis: application/json |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Chat
Criar conclusão de chat
POST {endpoint}/openai/v1/chat/completions
Cria uma conclusão de chat.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Áudio | OpenAI.CreateChatCompletionRequestAudio ou nulo | Parâmetros para saída de áudio. Necessário quando a saída de áudio é solicitada commodalities: ["audio"]. |
Não | |
| frequency_penalty | número ou nulo | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a frequência do modelo probabilidade de repetir a mesma linha verbatim. |
Não | |
| function_call | string ou OpenAI.ChatCompletionFunctionCallOption | Preterido em favor de tool_choice.Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará umaMensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar umFunção. Especificar uma função específica por meio {"name": "my_function"} de força omodelo para chamar essa função. none é o padrão quando nenhuma função está presente.
auto é o padrãose as funções estiverem presentes. |
Não | |
| Funções | matriz de OpenAI.ChatCompletionFunctions | Preterido em favor de tools.Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não | |
| logit_bias | objeto ou nulo | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token na tokenizer) para um valor de viés associado de -100 para 100. Matematicamente o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 deve resultar em uma proibição ou seleção exclusiva do token relevante. |
Não | |
| logprobs | booliano ou nulo | Se deseja retornar probabilidades de log dos tokens de saída ou não. Se for verdade, retorna as probabilidades de log de cada token de saída retornado no content de message. |
Não | |
| max_completion_tokens | inteiro ou nulo | Um limite superior para o número de tokens que podem ser gerados para um conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. |
Não | |
| max_tokens | inteiro ou nulo | O número máximo de tokens que podem ser gerados na conclusão do chat. Esse valor pode ser usado para controlar os custos do texto gerado por meio da API. Esse valor agora foi preterido em favor de max_completion_tokens, e énão compatível com modelos da série o1. |
Não | |
| Mensagens | matriz de OpenAI.ChatCompletionRequestMessage | Uma lista de mensagens que compõem a conversa até agora. Dependendo do modelo usado, diferentes tipos de mensagem (modalidades) têm suporte, como texto, imagens e áudio. |
Sim | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Modalidades | OpenAI.ResponseModalities | Tipos de saída que você gostaria que o modelo gerasse. A maioria dos modelos é capaz de gerar texto, que é o padrão: ["text"]O gpt-4o-audio-preview modelo também pode ser usado paragerar áudio. Para solicitar que esse modelo gere As respostas de texto e áudio podem ser usadas: ["text", "audio"] |
Não | |
| modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Sim | |
| N | inteiro ou nulo | Quantas opções de conclusão de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 minimizar os custos. |
Não | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | |
| previsão | OpenAI.PredictionContent | Conteúdo de saída previsto estático, como o conteúdo de um arquivo de texto que é sendo regenerado. |
Não | |
| └─ conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestMessageContentPartText | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornado muito mais rapidamente. |
Sim | |
| └─ tipo | enumeração | O tipo do conteúdo previsto que você deseja fornecer. Esse tipo é atualmente sempre content.Valores possíveis: content |
Sim | |
| presence_penalty | número ou nulo | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo para falar sobre novos tópicos. |
Não | |
| prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| response_format | OpenAI.CreateChatCompletionRequestResponseFormat | Um objeto que especifica o formato que o modelo deve gerar. Configuração para { "type": "json_schema", "json_schema": {...} } habilitarSaídas estruturadas que garantem que o modelo corresponda ao JSON fornecido Esquema. Saiba mais nas saídas estruturadas guia. Configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, quegarante que a mensagem gerada pelo modelo seja JSON válida. Usando json_schemaé preferencial para modelos que dão suporte a ele. |
Não | |
| └─ tipo | OpenAI.CreateChatCompletionRequestResponseFormatType | Sim | ||
| safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| Semente | inteiro ou nulo | Esse recurso está em Beta. Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
Não | |
| Parar | OpenAI.StopConfiguration | Não há suporte para modelos o3 de raciocínio mais recentes e o4-mini.Até quatro sequências em que a API deixará de gerar tokens adicionais. O O texto retornado não conterá a sequência de interrupção. |
Não | |
| armazenar | booliano ou nulo | Se deseja ou não armazenar a saída dessa solicitação de conclusão de chat para usar em produtos de destilação ou avaliação de modelo. |
Não | |
| fluxo | booliano ou nulo | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente como ele é gerado usando eventos enviados pelo servidor. |
Não | |
| stream_options | OpenAI.ChatCompletionStreamOptions ou nulo | Não | ||
| Temperatura | número ou nulo | Não | ||
| tool_choice | OpenAI.ChatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas.Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes. |
Não | |
| Ferramentas | matriz de OpenAI.ChatCompletionTool ou OpenAI.CustomToolChatCompletions | Uma lista de ferramentas que o modelo pode chamar. Você pode fornecer qualquer um ferramentas personalizadas ou ferramentas de função. |
Não | |
| top_logprobs | inteiro ou nulo | Não | ||
| top_p | número ou nulo | Não | ||
| usuário | cadeia de caracteres (preterida) | Um identificador exclusivo que representa o usuário final, que pode ajudar a monitorar e detectar abusos. |
Não | |
| user_security_context | AzureUserSecurityContext | O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem. | Não | |
| detalhamento | OpenAI.Verbosity | Restringe a verbosidade da resposta do modelo. Valores mais baixos resultarão em respostas mais concisas, enquanto valores mais altos resultarão em respostas mais detalhadas. Os valores com suporte no momento são low, mediume high. |
Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto ou objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Exemplos
Exemplo
POST {endpoint}/openai/v1/chat/completions
Conclusões
Criar conclusão
POST {endpoint}/openai/v1/completions
Cria uma conclusão.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| best_of | inteiro ou nulo | Gera conclusões best_of no lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n, best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n.Observação:* Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
Não | |
| Eco | booliano ou nulo | Ecoe novamente o prompt, além da conclusão | Não | |
| frequency_penalty | número ou nulo | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha verbatim. Veja mais informações sobre as penalidades de frequência e presença. |
Não | |
| logit_bias | objeto ou nulo | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no token GPT) para um valor de viés associado de -100 para 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato variará por modelo, mas os valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; valores como -100 ou 100 devem resultar em uma proibição ou seleção exclusiva do token relevante. Por exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | |
| logprobs | inteiro ou nulo | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se for logprobs 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo é logprobs 5. |
Não | |
| max_tokens | inteiro ou nulo | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo.
Exemplo de código Python para contagem de tokens. |
Não | |
| modelo | cadeia | ID do modelo a ser usado. Você pode usar a API de modelos de lista para ver todos os seus modelos disponíveis ou ver nossa visão geral do modelo para obter descrições deles. | Sim | |
| N | inteiro ou nulo | Quantas conclusões serão geradas para cada prompt. Observação:* Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e verifique se você tem configurações razoáveis para max_tokens e stop. |
Não | |
| presence_penalty | número ou nulo | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Veja mais informações sobre as penalidades de frequência e presença. |
Não | |
| solicitação | cadeia de caracteres ou matriz de cadeia de caracteres ou nulo | Não | ||
| Semente | inteiro ou nulo | Se especificado, nosso sistema fará o melhor esforço para amostrar deterministicamente, de modo que solicitações repetidas com o mesmo seed e parâmetros devem retornar o mesmo resultado.O determinismo não é garantido e você deve se referir ao system_fingerprint parâmetro de resposta para monitorar as alterações no back-end. |
Não | |
| Parar | OpenAI.StopConfiguration | Não há suporte para modelos o3 de raciocínio mais recentes e o4-mini.Até quatro sequências em que a API deixará de gerar tokens adicionais. O O texto retornado não conterá a sequência de interrupção. |
Não | |
| fluxo | booliano ou nulo | Se o progresso parcial deve ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Exemplo de código python. |
Não | |
| stream_options | OpenAI.ChatCompletionStreamOptions ou nulo | Não | ||
| Sufixo | cadeia de caracteres ou nulo | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct. |
Não | |
| Temperatura | número ou nulo | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. Geralmente, recomendamos alterar isso ou top_p não ambos. |
Não | |
| top_p | número ou nulo | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperature não ambos. |
Não | |
| usuário | cadeia | Saiba mais. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Exemplos
Exemplo
POST {endpoint}/openai/v1/completions
Contêineres
Listar contêineres
GET {endpoint}/openai/v1/containers
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente edescpara ordem decrescente. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Antes | consulta | Não | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir before=obj_foo para buscar a página anterior da lista. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ContainerListResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar contêiner
POST {endpoint}/openai/v1/containers
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | OpenAI.CreateContainerBodyExpiresAfter | Não | ||
| └─ âncora | enumeração | Valores possíveis: last_active_at |
Sim | |
| └─ minutos | inteiro | Sim | ||
| file_ids | matriz de cadeia de caracteres | IDs de arquivos a serem copiados para o contêiner. | Não | |
| memory_limit | enumeração | Limite de memória opcional para o contêiner. O padrão é 1g.Valores possíveis: 1g, , 4g, 16g64g |
Não | |
| Nome | cadeia | Nome do contêiner a ser criado. | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ContainerResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar contêiner
GET {endpoint}/openai/v1/containers/{container_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner a ser recuperado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ContainerResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir contêiner
DELETE {endpoint}/openai/v1/containers/{container_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner a ser excluído. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar arquivos de contêiner
GET {endpoint}/openai/v1/containers/{container_id}/files
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner do qual listar arquivos. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente edescpara ordem decrescente. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Antes | consulta | Não | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir before=obj_foo para buscar a página anterior da lista. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ContainerFileListResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar arquivo de contêiner
POST {endpoint}/openai/v1/containers/{container_id}/files
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner no qual criar um arquivo. |
Corpo da Solicitação
Content-Type: multipart/form-data (dados de formulário em múltiplas partes)
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| arquivo | O objeto File (não o nome do arquivo) a ser carregado. | Não | ||
| File_id | cadeia | Nome do arquivo a ser criado. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ContainerFileResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar arquivo de contêiner
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner. |
| File_id | caminho | Sim | cadeia | A ID do arquivo a ser recuperado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ContainerFileResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir arquivo de contêiner
DELETE {endpoint}/openai/v1/containers/{container_id}/files/{file_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner. |
| File_id | caminho | Sim | cadeia | A ID do arquivo a ser excluído. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar o conteúdo do arquivo de contêiner
GET {endpoint}/openai/v1/containers/{container_id}/files/{file_id}/content
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| container_id | caminho | Sim | cadeia | A ID do contêiner. |
| File_id | caminho | Sim | cadeia | A ID do arquivo do qual recuperar o conteúdo. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/octet-stream | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Conversas
Criar conversa
POST {endpoint}/openai/v1/conversations
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Itens | matriz de OpenAI.InputItem ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar conversa
GET {endpoint}/openai/v1/conversations/{conversation_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa a ser recuperada. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Atualizar conversa
POST {endpoint}/openai/v1/conversations/{conversation_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa a ser atualizada. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir conversa
DELETE {endpoint}/openai/v1/conversations/{conversation_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa a ser excluída. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeletedConversationResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar itens de conversa
GET {endpoint}/openai/v1/conversations/{conversation_id}/items
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa para a qual listar itens. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
A ordem para retornar os itens de entrada. O padrão é desc. |
| Depois | consulta | Não | cadeia | Uma ID de item para listar itens depois, usada na paginação. |
| Incluem | consulta | Não | matriz | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationItemList |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar itens de conversa
POST {endpoint}/openai/v1/conversations/{conversation_id}/items
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa à qual adicionar o item. |
| Incluem | consulta | Não | matriz | Campos adicionais a serem incluídos na resposta. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Itens | matriz de OpenAI.InputItem | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationItemList |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar item de conversa
GET {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa que contém o item. |
| item_id | caminho | Sim | cadeia | A ID do item a ser recuperado. |
| Incluem | consulta | Não | matriz | Campos adicionais a serem incluídos na resposta. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationItem |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir item de conversa
DELETE {endpoint}/openai/v1/conversations/{conversation_id}/items/{item_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| conversation_id | caminho | Sim | cadeia | A ID da conversa que contém o item. |
| item_id | caminho | Sim | cadeia | A ID do item a ser excluído. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ConversationResource |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Avaliações
Listar valores
GET {endpoint}/openai/v1/evals
Listar avaliações para um projeto.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| Depois | consulta | Não | cadeia | Identificador da última avaliação da solicitação de paginação anterior. |
| Limite | consulta | Não | inteiro | Um limite no número de avaliações a serem retornados em uma única resposta de paginação. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Ordem de classificação para valores por carimbo de data/hora. Usar asc para ordem crescente oudesc para ordem decrescente. |
| order_by | consulta | Não | cadeia Valores possíveis: created_at, updated_at |
Os valores podem ser ordenados por hora de criação ou hora da última atualização. Usarcreated_at para a hora de criação ou updated_at para a última atualizaçãoTempo. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalList |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar valor
POST {endpoint}/openai/v1/evals
Crie a estrutura de uma avaliação que pode ser usada para testar o desempenho de um modelo.
Uma avaliação é um conjunto de critérios de teste e uma fonte de dados. Depois de criar uma avaliação, você pode executá-la em diferentes modelos e parâmetros de modelo. Oferecemos suporte a vários tipos de grades e fontes de dados.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| data_source_config | OpenAI.CreateEvalCustomDataSourceConfig ou OpenAI.CreateEvalLogsDataSourceConfig ou OpenAI.CreateEvalStoredCompletionsDataSourceConfig | A configuração da fonte de dados usada para as execuções de avaliação. Determina o esquema dos dados usados na avaliação. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia | O nome da avaliação. | Não | |
| Statuscode | enumeração | Valores possíveis: 201 |
Sim | |
| testing_criteria | matriz de OpenAI.CreateEvalLabelModelGrader ou OpenAI.EvalGraderStringCheck ou OpenAI.EvalGraderTextSimilarity ou OpenAI.EvalGraderPython ou OpenAI.EvalGraderScoreModel ou EvalGraderEndpoint | Uma lista de avaliadores para todas as execuções de avaliação neste grupo. Os alunos podem fazer referência a variáveis na fonte de dados usando notação de chaves duplas, como {{item.variable_name}}. Para fazer referência à saída do modelo, use o sample namespace (ou seja, {{sample.output_text}}). |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.Eval |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter avaliação
GET {endpoint}/openai/v1/evals/{eval_id}
Recupere uma avaliação por sua ID. Recupera uma avaliação por sua ID.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.Eval |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Atualizar a avaliação
POST {endpoint}/openai/v1/evals/{eval_id}
Atualize as propriedades selecionáveis e mutáveis de uma avaliação especificada.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um estruturado formatar e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Não | |
| Nome | cadeia | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.Eval |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir avaliação
DELETE {endpoint}/openai/v1/evals/{eval_id}
Exclua uma avaliação especificada.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter execuções de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs
Recupere uma lista de execuções para uma avaliação especificada.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia | |
| Depois | consulta | Não | cadeia | |
| Limite | consulta | Não | inteiro | |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
|
| status | consulta | Não | cadeia Valores possíveis: queued, , in_progress, completed, canceled, failed |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalRunList |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar execução de avaliação
POST {endpoint}/openai/v1/evals/{eval_id}/runs
Crie uma nova execução de avaliação, iniciando o processo de classificação.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Data_source | OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource | Detalhes sobre a fonte de dados da execução. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia | O nome da execução. | Não |
Respostas
Código de status: 201
Descrição: a solicitação foi bem-sucedida e um novo recurso foi criado como resultado.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalRun |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter execução de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Recupere uma avaliação específica executada por sua ID.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalRun |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Cancelar execução de avaliação
POST {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Cancele uma avaliação específica executada por sua ID.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalRun |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir execução de avaliação
DELETE {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}
Exclua uma avaliação específica executada por sua ID.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter itens de saída de execução de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items
Obtenha uma lista de itens de saída para uma execução de avaliação especificada.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia | |
| Depois | consulta | Não | cadeia | |
| Limite | consulta | Não | inteiro | |
| status | consulta | Não | cadeia Valores possíveis: fail, pass |
|
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItemList |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter item de saída de execução de avaliação
GET {endpoint}/openai/v1/evals/{eval_id}/runs/{run_id}/output_items/{output_item_id}
Recupere um item de saída específico de uma avaliação executada por sua ID.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| eval_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia | |
| output_item_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.EvalRunOutputItem |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Arquivos
Criar arquivo
POST {endpoint}/openai/v1/files
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Content-Type: multipart/form-data (dados de formulário em múltiplas partes)
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | objeto | Sim | ||
| └─ âncora | AzureFileExpiryAnchor | Sim | ||
| └─ segundos | inteiro | Sim | ||
| arquivo | O objeto File (não o nome do arquivo) a ser carregado. | Sim | ||
| Propósito | enumeração | A finalidade pretendida do arquivo carregado. Um de: - assistants: Usado na API de Assistentes - batch: Usado na API do Lote - fine-tune: Usado para ajuste fino - evals: Usado para conjuntos de dados de avaliaçãoValores possíveis: assistants, , batch, fine-tuneevals |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Exemplos
Exemplo
POST {endpoint}/openai/v1/files
Listar arquivos
GET {endpoint}/openai/v1/files
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| Propósito | consulta | Não | cadeia | |
| Limite | consulta | Não | inteiro | |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
|
| Depois | consulta | Não | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListFilesResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar arquivo
GET {endpoint}/openai/v1/files/{file_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| File_id | caminho | Sim | cadeia | A ID do arquivo a ser usado para essa solicitação. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir arquivo
DELETE {endpoint}/openai/v1/files/{file_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| File_id | caminho | Sim | cadeia | A ID do arquivo a ser usado para essa solicitação. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteFileResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Baixar arquivo
GET {endpoint}/openai/v1/files/{file_id}/content
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| File_id | caminho | Sim | cadeia | A ID do arquivo a ser usado para essa solicitação. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/octet-stream | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Embeddings
Criar inserção
POST {endpoint}/openai/v1/embeddings
Cria um vetor de inserção que representa o texto de entrada.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Dimensões | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores.Restrições: min: 1 |
Não | |
| encoding_format | enumeração | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64.Valores possíveis: float, base64 |
Não | |
| entrada | cadeia de caracteres ou matriz de cadeia de caracteres ou matriz de inteiros ou matriz de matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para todos os modelos de inserção), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. Exemplo de código Python para contagem de tokens. Além do limite de token por entrada, todos os modelos de inserção impõem um máximo de 300.000 tokens somados em todas as entradas em uma única solicitação. | Sim | |
| modelo | cadeia | ID do modelo a ser usado. Você pode usar a API de modelos de lista para ver todos os seus modelos disponíveis ou ver nossa visão geral do modelo para obter descrições deles. | Sim | |
| usuário | cadeia | Saiba mais. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.CreateEmbeddingResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Exemplos
Exemplo
POST {endpoint}/openai/v1/embeddings
Ajuste fino
Executar o classificador
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/run
Execute um classificador.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Série | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | O classificador usado para o trabalho de ajuste fino. | Sim | |
| item | OpenAI.RunGraderRequestItem | Não | ||
| model_sample | cadeia | O exemplo de modelo a ser avaliado. Esse valor será usado para preencher o sample namespace. Consulte o guia para obter mais detalhes.A output_json variável será preenchida se o exemplo de modelo for umcadeia de caracteres JSON válida. |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunGraderResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Validar o classificador
POST {endpoint}/openai/v1/fine_tuning/alpha/graders/validate
Valide um classificador.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Série | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ValidateGraderResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar permissões de ponto de verificação de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Listar permissões de ponto de verificação
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuned_model_checkpoint | caminho | Sim | cadeia | A ID do ponto de verificação de modelo ajustado para o qual obter permissões. |
| project_id | consulta | Não | cadeia | A ID do projeto para o qual obter permissões. |
| Depois | consulta | Não | cadeia | Identificador da última ID de permissão da solicitação de paginação anterior. |
| Limite | consulta | Não | inteiro | Número de permissões a serem recuperadas. |
| ordem | consulta | Não | cadeia Valores possíveis: ascending, descending |
A ordem na qual recuperar permissões. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar permissão de ponto de verificação de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions
Criar permissões de ponto de verificação
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuned_model_checkpoint | caminho | Sim | cadeia | A ID do ponto de verificação de modelo ajustado para o qual criar uma permissão. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| project_ids | matriz de cadeia de caracteres | Os identificadores de projeto aos quais conceder acesso. | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListFineTuningCheckpointPermissionResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir permissão de ponto de verificação de ajuste fino
DELETE {endpoint}/openai/v1/fine_tuning/checkpoints/{fine_tuned_model_checkpoint}/permissions/{permission_id}
Excluir permissão de ponto de verificação
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuned_model_checkpoint | caminho | Sim | cadeia | A ID do ponto de verificação de modelo ajustado para o qual excluir uma permissão. |
| permission_id | caminho | Sim | cadeia | A ID da permissão de ponto de verificação do modelo ajustado a ser excluída. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteFineTuningCheckpointPermissionResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar um trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs
Cria um trabalho de ajuste fino que inicia o processo de criação de um novo modelo a partir de um determinado conjunto de dados.
A resposta inclui detalhes do trabalho enfileirado, incluindo o status do trabalho e o nome dos modelos ajustados após a conclusão.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| hiperparâmetros | OpenAI.CreateFineTuningJobRequestHyperparameters | Não | ||
| └─ tamanho_do_lote (batch_size) | cadeia de caracteres ou inteiro | Não | Automático | |
| └─ multiplicador_da_taxa_de_aprendizagem | cadeia de caracteres ou número | Não | ||
| └─ n_epochs | cadeia de caracteres ou inteiro | Não | Automático | |
| Integrações | matriz de OpenAI.CreateFineTuningJobRequestIntegrations ou null | Uma lista de integrações para habilitar seu trabalho de ajuste fino. | Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| método | OpenAI.FineTuneMethod | O método usado para ajuste fino. | Não | |
| modelo | cadeia de caracteres (veja os modelos válidos abaixo) | O nome do modelo a ser afinado. Você pode selecionar um dos modelos compatíveis. |
Sim | |
| Semente | inteiro ou nulo | A semente controla a reprodutibilidade do trabalho. Passar os mesmos parâmetros de semente e trabalho deve produzir os mesmos resultados, mas pode ser diferente em casos raros. Se uma semente não for especificada, uma será gerada para você. |
Não | |
| Sufixo | cadeia de caracteres ou nulo | Uma cadeia de caracteres de até 64 caracteres que será adicionada ao seu nome de modelo ajustado. Por exemplo, um suffix "custom-model-name" produziria um nome de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
Não | |
| training_file | cadeia | A ID de um arquivo carregado que contém dados de treinamento. Consulte o arquivo de upload para saber como carregar um arquivo. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Além disso, você deve carregar seu arquivo com a finalidade fine-tune.O conteúdo do arquivo deve ser diferente dependendo se o modelo usar o chat, o formato de conclusão ou se o método de ajuste fino usar o formato de preferência . Consulte o guia de ajuste fino para obter mais detalhes. |
Sim | |
| validation_file | cadeia de caracteres ou nulo | A ID de um arquivo carregado que contém dados de validação. Se você fornecer esse arquivo, os dados serão usados para gerar validação métricas periodicamente durante o ajuste fino. Essas métricas podem ser exibidas em o arquivo de resultados de ajuste fino. Os mesmos dados não devem estar presentes nos arquivos de treinamento e validação. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Você deve carregar seu arquivo com a finalidade fine-tune.Consulte o guia de ajuste fino para obter mais detalhes. |
Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar trabalhos de ajuste fino paginado
GET {endpoint}/openai/v1/fine_tuning/jobs
Listar os trabalhos de ajuste fino da sua organização
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| Depois | consulta | Não | cadeia | Identificador do último trabalho da solicitação de paginação anterior. |
| Limite | consulta | Não | inteiro | Número de trabalhos de ajuste fino a serem recuperados. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListPaginatedFineTuningJobsResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar trabalho de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}
Obtenha informações sobre um trabalho de ajuste fino.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | A ID do trabalho de ajuste fino. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Cancelar o trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/cancel
Cancele imediatamente um trabalho de ajuste fino.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | A ID do trabalho de ajuste fino a ser cancelado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar pontos de verificação de trabalho de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints
Liste os pontos de verificação para um trabalho de ajuste fino.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | A ID do trabalho de ajuste fino para o qual obter pontos de verificação. |
| Depois | consulta | Não | cadeia | Identificador da última ID do ponto de verificação da solicitação de paginação anterior. |
| Limite | consulta | Não | inteiro | Número de pontos de verificação a serem recuperados. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobCheckpointsResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Ajuste fino – copiar ponto de verificação
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Cria uma cópia de um ponto de verificação de ajuste fino na conta de destino e região fornecidas.
OBSERVAÇÃO: esta API do Azure OpenAI está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | |
| fine_tuning_checkpoint_id | caminho | Sim | cadeia |
Cabeçalho de solicitação
| Nome | Necessário | Tipo | Descrição |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Verdade | cadeia Valores possíveis: preview |
Habilita o acesso a operações de cópia de ponto de verificação para modelos, um recurso de versão prévia do AOAI. Esse recurso requer que o cabeçalho 'aoai-copy-ft-checkpoints' seja definido como 'preview'. |
| Aceitar | Verdade | cadeia Valores possíveis: application/json |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| destinationResourceId | cadeia | A ID do recurso de destino a ser copiado. | Sim | |
| região | cadeia | A região para a qual copiar o modelo. | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | CopyModelResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Ajuste fino – obter ponto de verificação
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/checkpoints/{fine_tuning_checkpoint_id}/copy
Obtém o status de uma cópia de ponto de verificação de ajuste fino.
OBSERVAÇÃO: esta API do Azure OpenAI está em versão prévia e está sujeita a alterações.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | |
| fine_tuning_checkpoint_id | caminho | Sim | cadeia |
Cabeçalho de solicitação
| Nome | Necessário | Tipo | Descrição |
|---|---|---|---|
| aoai-copy-ft-checkpoints | Verdade | cadeia Valores possíveis: preview |
Habilita o acesso a operações de cópia de ponto de verificação para modelos, um recurso de versão prévia do AOAI. Esse recurso requer que o cabeçalho 'aoai-copy-ft-checkpoints' seja definido como 'preview'. |
| Aceitar | Verdade | cadeia Valores possíveis: application/json |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | CopyModelResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar eventos de ajuste fino
GET {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/events
Obtenha atualizações de status para um trabalho de ajuste fino.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | A ID do trabalho de ajuste fino para o qual obter eventos. |
| Depois | consulta | Não | cadeia | Identificador do último evento da solicitação de paginação anterior. |
| Limite | consulta | Não | inteiro | Número de eventos a serem recuperados. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListFineTuningJobEventsResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Pausar o trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/pause
Pausar um trabalho de ajuste fino.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | A ID do trabalho de ajuste fino para pausar. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Retomar o trabalho de ajuste fino
POST {endpoint}/openai/v1/fine_tuning/jobs/{fine_tuning_job_id}/resume
Retome um trabalho de ajuste fino em pausa.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| fine_tuning_job_id | caminho | Sim | cadeia | A ID do trabalho de ajuste fino a ser retomado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.FineTuningJob |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Modelos
Listar modelos
GET {endpoint}/openai/v1/models
Lista os modelos disponíveis no momento e fornece informações básicas sobre cada um deles, como o proprietário e a disponibilidade.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListModelsResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar modelo
GET {endpoint}/openai/v1/models/{model}
Recupera uma instância de modelo, fornecendo informações básicas sobre o modelo, como o proprietário e permissões.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| modelo | caminho | Sim | cadeia | A ID do modelo a ser usado para essa solicitação. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.Model |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir modelo
DELETE {endpoint}/openai/v1/models/{model}
Exclui uma instância de modelo.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| modelo | caminho | Sim | cadeia | A ID do modelo a ser excluído. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteModelResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Realtime
Criar chamada em tempo real
POST {endpoint}/openai/v1/realtime/calls
Crie uma nova chamada de API em tempo real pelo WebRTC e receba a resposta SDP necessária para concluir a conexão de par.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Content-Type: multipart/form-data (dados de formulário em múltiplas partes)
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Sdp | cadeia | Oferta do Protocolo de Descrição da Sessão webRTC (SDP) gerada pelo chamador. | Sim | |
| sessão | OpenAI.RealtimeSessionCreateRequestGA | Configuração do objeto de sessão em tempo real. | Não | |
| └─ áudio | OpenAI.RealtimeSessionCreateRequestGAAudio | Configuração para áudio de entrada e saída. | Não | |
| └─ inclua | matriz de cadeia de caracteres | Campos adicionais a serem incluídos nas saídas do servidor.item.input_audio_transcription.logprobs: inclua logprobs para transcrição de áudio de entrada. |
Não | |
| └─ instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
Não | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| └─ modelo | cadeia | O modelo em tempo real usado para esta sessão. | Não | |
| └─ output_modalities | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Ele usa como padrão, ["audio"]indicandoque o modelo responderá com áudio mais uma transcrição. ["text"] pode ser usado para fazero modelo responde somente com texto. Não é possível solicitar ambos text e audio ao mesmo tempo. |
Não | ['audio'] |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Como o modelo escolhe as ferramentas. Fornecer um dos modos de cadeia de caracteres ou forçar um específico ferramenta function/MCP. |
Não | Automático |
| └─ ferramentas | matriz de OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Ferramentas disponíveis para o modelo. | Não | |
| └─ rastreamento | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | "" Definido como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | Automático |
| └─ truncamento | OpenAI.RealtimeTruncation | Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo. |
Não | |
| └─ tipo | enumeração | O tipo de sessão a ser criada. Sempre realtime para a API em tempo real.Valores possíveis: realtime |
Sim |
Respostas
Código de status: 201
Descrição: a solicitação foi bem-sucedida e um novo recurso foi criado como resultado.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/sdp | cadeia |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| local | cadeia | URL relativa que contém a ID de chamada para solicitações de controle subsequentes. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Aceitar chamada em tempo real
POST {endpoint}/openai/v1/realtime/calls/{call_id}/accept
Aceite uma chamada SIP de entrada e configure a sessão em tempo real que a tratará.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| call_id | caminho | Sim | cadeia | O identificador da chamada fornecida no webhook realtime.call.incoming. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Áudio | OpenAI.RealtimeSessionCreateRequestGAAudio | Não | ||
| └─ entrada | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Não | ||
| └─ saída | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Não | ||
| Incluem | matriz de cadeia de caracteres | Campos adicionais a serem incluídos nas saídas do servidor.item.input_audio_transcription.logprobs: inclua logprobs para transcrição de áudio de entrada. |
Não | |
| Instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
Não | |
| max_output_tokens | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| modelo | cadeia | O modelo em tempo real usado para esta sessão. | Não | |
| output_modalities | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Ele usa como padrão, ["audio"]indicandoque o modelo responderá com áudio mais uma transcrição. ["text"] pode ser usado para fazero modelo responde somente com texto. Não é possível solicitar ambos text e audio ao mesmo tempo. |
Não | ['audio'] |
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Como o modelo escolhe as ferramentas. Fornecer um dos modos de cadeia de caracteres ou forçar um específico ferramenta function/MCP. |
Não | |
| Ferramentas | matriz de OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Ferramentas disponíveis para o modelo. | Não | |
| rastreamento | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | "" Definido como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | |
| Truncamento | OpenAI.RealtimeTruncation | Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo. |
Não | |
| tipo | enumeração | O tipo de sessão a ser criada. Sempre realtime para a API em tempo real.Valores possíveis: realtime |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Desligar chamada em tempo real
POST {endpoint}/openai/v1/realtime/calls/{call_id}/hangup
Encerre uma chamada de API em tempo real ativa, seja ela iniciada por SIP ou WebRTC.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| call_id | caminho | Sim | cadeia | O identificador da chamada. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Consultar chamada em tempo real
POST {endpoint}/openai/v1/realtime/calls/{call_id}/refer
Transfira uma chamada SIP ativa para um novo destino usando o verbo SIP REFER.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| call_id | caminho | Sim | cadeia | O identificador da chamada fornecida no webhook realtime.call.incoming. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| target_uri | cadeia | URI que deve aparecer no cabeçalho Refer-To SIP. Dá suporte a valores comotel:+14155550123 ou sip:agent\@example.com. |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Rejeitar chamada em tempo real
POST {endpoint}/openai/v1/realtime/calls/{call_id}/reject
Recuse uma chamada SIP de entrada retornando um código de status SIP para o chamador.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| call_id | caminho | Sim | cadeia | O identificador da chamada fornecida no webhook realtime.call.incoming. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| status_code | inteiro | Código de resposta SIP para enviar de volta ao chamador. O padrão é 603 (recusar)quando omitido. |
Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar segredo do cliente em tempo real
POST {endpoint}/openai/v1/realtime/client_secrets
Crie um segredo do cliente em tempo real com uma configuração de sessão associada.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | Não | ||
| └─ âncora | enumeração | Valores possíveis: created_at |
Não | |
| └─ segundos | inteiro | Restrições: min: 10, máximo: 7200 | Não | 600 |
| sessão | OpenAI.RealtimeSessionCreateRequestUnion | Não | ||
| └─ tipo | OpenAI.RealtimeSessionCreateRequestUnionType | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RealtimeCreateClientSecretResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar sessão em tempo real
POST {endpoint}/openai/v1/realtime/sessions
Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeSessionCreateRequestClientSecret | Sim | ||
| └─ data_de_expiração | inteiro | Sim | ||
| └─ valor | cadeia | Sim | ||
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw. |
Não | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | Não | ||
| └─ modelo | cadeia | Não | ||
| Instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
Não | |
| max_response_output_tokens | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| Modalidades | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina isso como ["text"]. |
Não | ['text', 'audio'] |
| output_audio_format | cadeia | O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw. |
Não | |
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| Velocidade | Número | A velocidade da resposta falada do modelo. 1.0 é a velocidade padrão. 0,25 é a velocidade mínima. 1,5 é a velocidade máxima. Esse valor só pode ser alterado entre as curvas de modelo, não enquanto uma resposta estiver em andamento. Restrições: min: 0,25, máximo: 1,5 |
Não | 1 |
| Temperatura | Número | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O padrão é 0,8. | Não | |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, none, requiredouespecificar uma função. |
Não | |
| Ferramentas | matriz de OpenAI.RealtimeSessionCreateRequestTools | Ferramentas (funções) disponíveis para o modelo. | Não | |
| rastreamento | cadeia de caracteres ou objeto | Opções de configuração para rastreamento. Defina como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | |
| Truncamento | OpenAI.RealtimeTruncation | Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo. |
Não | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | Não | ||
| └─ prefix_padding_ms | inteiro | Não | ||
| └─ duração_do_silêncio_ms | inteiro | Não | ||
| └─ limite | Número | Não | ||
| └─ tipo | cadeia | Não | ||
| tipo | enumeração | Valores possíveis: realtime |
Sim | |
| Voz | OpenAI.VoiceIdsShared | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RealtimeSessionCreateResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar sessão de transcrição em tempo real
POST {endpoint}/openai/v1/realtime/transcription_sessions
Crie um token de API efêmera para uso em aplicativos do lado do cliente com a API realtime especificamente para transcrições em tempo real.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Incluem | matriz de cadeia de caracteres | O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são:item.input_audio_transcription.logprobs |
Não | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de exemplo de 24 kHz,canal único (mono) e ordem de bytes little-endian. Valores possíveis: pcm16, , g711_ulawg711_alaw |
Não | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | Não | ||
| └─ tipo | OpenAI.NoiseReductionType | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência. |
Não | |
| input_audio_transcription | OpenAI.AudioTranscription | Não | ||
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecendo o idioma de entrada em Formato ISO-639-1 (por exemplo en)melhorará a precisão e a latência. |
Não | |
| └─ modelo | cadeia | O modelo a ser usado para transcrição. As opções atuais são whisper-1, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15e gpt-4o-transcribegpt-4o-transcribe-diarize. Use gpt-4o-transcribe-diarize quando precisar de diarização com rótulos de alto-falante. |
Não | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um áudio anterior Segmento. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos (excluindo gpt-4o-transcribe-diarize), o prompt é uma cadeia de caracteres de texto livre, por exemplo, "esperar palavras relacionadas à tecnologia". |
Não | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | Não | ||
| └─ prefix_padding_ms | inteiro | Não | ||
| └─ duração_do_silêncio_ms | inteiro | Não | ||
| └─ limite | Número | Não | ||
| └─ tipo | enumeração | Valores possíveis: server_vad |
Não | |
| tipo | enumeração | Valores possíveis: transcription |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RealtimeTranscriptionSessionCreateResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Respostas
Criar resposta
POST {endpoint}/openai/v1/responses
Cria uma resposta de modelo.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| em segundo plano | booliano ou nulo | Não | ||
| conversa | OpenAI.ConversationParam ou nulo | Não | ||
| Incluem | matriz de OpenAI.IncludeEnum ou null | Não | ||
| entrada | OpenAI.InputParam | Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. Saiba Mais: - Entradas e saídas de texto - Entradas de imagem - Entradas de arquivo - Estado da conversa - Chamada de função |
Não | |
| Instruções | cadeia de caracteres ou nulo | Não | ||
| max_output_tokens | inteiro ou nulo | Não | ||
| max_tool_calls | inteiro ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| parallel_tool_calls | booliano ou nulo | Não | ||
| previous_response_id | cadeia de caracteres ou nulo | Não | ||
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| Raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| armazenar | booliano ou nulo | Não | ||
| fluxo | booliano ou nulo | Não | ||
| stream_options | OpenAI.ResponseStreamOptions ou nulo | Não | ||
| Temperatura | número ou nulo | Não | ||
| enviar SMS | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| tool_choice | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| Ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| top_logprobs | inteiro ou nulo | Não | ||
| top_p | número ou nulo | Não | ||
| Truncamento | cadeia de caracteres ou nulo | Não | ||
| usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto | |
| text/event-stream | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Exemplos
Exemplo
POST {endpoint}/openai/v1/responses
Obter resposta
GET {endpoint}/openai/v1/responses/{response_id}
Recupera uma resposta de modelo com a ID fornecida.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| response_id | caminho | Sim | cadeia | |
| include[] | consulta | Não | matriz | Campos adicionais a serem incluídos na resposta. Consulte o parâmetro include para a criação de resposta acima para obter mais informações. |
| fluxo | consulta | Não | Boolean | Se definido como true, os dados de resposta do modelo serão transmitidos para o cliente à medida que forem gerados usando eventos enviados pelo servidor. |
| starting_after | consulta | Não | inteiro | O número de sequência do evento após o qual iniciar o streaming. |
| include_obfuscation | consulta | Não | Boolean | Quando true, a ofuscação de fluxo será habilitada. A ofuscação de fluxo adiciona caracteres aleatórios a um obfuscation campo em eventos delta de streaming para normalizar os tamanhos de carga como uma mitigação para determinados ataques de canal lateral. Esses campos de ofuscação são incluídos por padrão, mas adicionam uma pequena quantidade de sobrecarga ao fluxo de dados. Você pode definir include_obfuscation como false para otimizar a largura de banda se confiar nos links de rede entre seu aplicativo e a API OpenAI. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir resposta
DELETE {endpoint}/openai/v1/responses/{response_id}
Exclui uma resposta por ID.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| response_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Cancelar resposta
POST {endpoint}/openai/v1/responses/{response_id}/cancel
Cancela uma resposta de modelo com a ID fornecida. Somente as respostas criadas com o parâmetro em segundo plano definido como true podem ser canceladas.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| response_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar itens de entrada
GET {endpoint}/openai/v1/responses/{response_id}/input_items
Retorna uma lista de itens de entrada para uma determinada resposta.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| response_id | caminho | Sim | cadeia | |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente edescpara ordem decrescente. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Antes | consulta | Não | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir before=obj_foo para buscar a página anterior da lista. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ResponseItemList |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Tópicos
Criar thread
POST {endpoint}/openai/v1/threads
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Mensagens | matriz de OpenAI.CreateMessageRequest | Uma lista de mensagens para iniciar o thread. | Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources ou null | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ThreadObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar e executar
POST {endpoint}/openai/v1/threads/runs
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Sim | |
| Instruções | cadeia de caracteres ou nulo | Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
| max_completion_tokens | inteiro ou nulo | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias curvas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| max_prompt_tokens | inteiro ou nulo | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | booliano ou nulo | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
| Temperatura | número ou nulo | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. | Não | |
| conversa | OpenAI.CreateThreadRequest | Opções para criar um novo thread. Se nenhum thread for fornecido ao executar um uma solicitação, um thread vazio será criado. |
Não | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources ou null | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
Não | |
| Ferramentas | matriz de OpenAI.AssistantTool | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
| top_p | número ou nulo | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
Não | |
| truncation_strategy | OpenAI.TruncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir thread
DELETE {endpoint}/openai/v1/threads/{thread_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteThreadResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar thread
GET {endpoint}/openai/v1/threads/{thread_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ThreadObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Modificar thread
POST {endpoint}/openai/v1/threads/{thread_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources ou null | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ThreadObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar mensagens
GET {endpoint}/openai/v1/threads/{thread_id}/messages
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| Limite | consulta | Não | inteiro | |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
|
| Depois | consulta | Não | cadeia | |
| Antes | consulta | Não | cadeia | |
| run_id | consulta | Não | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListMessagesResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar mensagem
POST {endpoint}/openai/v1/threads/{thread_id}/messages
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anexos | matriz de OpenAI.CreateMessageRequestAttachments ou null | Não | ||
| conteúdo | cadeia de caracteres ou matriz de OpenAI.MessageContentImageFileObject ou OpenAI.MessageContentImageUrlObject ou OpenAI.MessageRequestContentTextObject | Sim | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| função | enumeração | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user: indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.Valores possíveis: user, assistant |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.MessageObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir mensagem
DELETE {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| Message_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteMessageResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar mensagem
GET {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| Message_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.MessageObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Modificar mensagem
POST {endpoint}/openai/v1/threads/{thread_id}/messages/{message_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| Message_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.MessageObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar execução
POST {endpoint}/openai/v1/threads/{thread_id}/runs
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| additional_instructions | cadeia de caracteres ou nulo | Acrescenta instruções adicionais ao final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
| additional_messages | matriz de OpenAI.CreateMessageRequest ou null | Adiciona mensagens adicionais ao thread antes de criar a execução. | Não | |
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Sim | |
| Instruções | cadeia de caracteres ou nulo | Substitui as instruções do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
| max_completion_tokens | inteiro ou nulo | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias curvas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| max_prompt_tokens | inteiro ou nulo | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | |
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | booliano ou nulo | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
| Temperatura | número ou nulo | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. | Não | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
| Ferramentas | matriz de OpenAI.AssistantTool | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
| top_p | número ou nulo | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
Não | |
| truncation_strategy | OpenAI.TruncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar execuções
GET {endpoint}/openai/v1/threads/{thread_id}/runs
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| Limite | consulta | Não | inteiro | |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
|
| Depois | consulta | Não | cadeia | |
| Antes | consulta | Não | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListRunsResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar execução
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Modificar execução
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Cancelar execução
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/cancel
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Etapas de execução de lista
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia | |
| Limite | consulta | Não | inteiro | |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
|
| Depois | consulta | Não | cadeia | |
| Antes | consulta | Não | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListRunStepsResponse |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter a etapa de execução
GET {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/steps/{step_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia | |
| step_id | caminho | Sim | cadeia |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunStepObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Enviar saídas de ferramenta para execução
POST {endpoint}/openai/v1/threads/{thread_id}/runs/{run_id}/submit_tool_outputs
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| thread_id | caminho | Sim | cadeia | |
| run_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| fluxo | booliano ou nulo | Não | ||
| tool_outputs | matriz de OpenAI.SubmitToolOutputsRunRequestToolOutputs | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.RunObject |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Repositórios de Vetores
Listar repositórios de vetores
GET {endpoint}/openai/v1/vector_stores
Retorna uma lista de repositórios de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente edescpara ordem decrescente. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Antes | consulta | Não | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir before=obj_foo para buscar a página anterior da lista. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListVectorStoresResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar repositório de vetores
POST {endpoint}/openai/v1/vector_stores
Cria um repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
Não | |
| Descrição | cadeia | Uma descrição para o repositório de vetores. Pode ser usado para descrever a finalidade do repositório de vetores. | Não | |
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
| file_ids | matriz de cadeia de caracteres | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia | O nome do repositório de vetores. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Exemplos
Exemplo
POST {endpoint}/openai/v1/vector_stores
Obter repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}
Recupera um repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores a ser recuperado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Modificar o repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}
Modifica um repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores a ser modificado. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia de caracteres ou nulo | O nome do repositório de vetores. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir repositório de vetores
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}
Excluir um repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores a ser excluído. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar lote de arquivos do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches
Crie um lote de arquivos do repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores para o qual criar um lote de arquivos. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Não | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
Não | |
| file_ids | matriz de cadeia de caracteres | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. Se attributes forem fornecidos ou chunking_strategy fornecidos, eles serão aplicados a todos os arquivos no lote. Mutuamente exclusivo com files. |
Não | |
| Arquivos | matriz de OpenAI.CreateVectorStoreFileRequest | Uma lista de objetos que incluem uma file_id adição opcional attributes ou chunking_strategy. Use isso quando precisar substituir metadados para arquivos específicos. O global attributes ou chunking_strategy será ignorado e deve ser especificado para cada arquivo. Mutuamente exclusivo com file_ids. |
Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter o lote de arquivos do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}
Recupera um lote de arquivos do repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Sim | cadeia | A ID do lote de arquivos que está sendo recuperado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Cancelar lote de arquivos do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel
Cancelar um lote de arquivos do repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Sim | cadeia | A ID do lote de arquivos a ser cancelada. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreFileBatchObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar arquivos no lote do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/file_batches/{batch_id}/files
Retorna uma lista de arquivos do repositório de vetores em um lote.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores à qual o lote de arquivos pertence. |
| batch_id | caminho | Sim | cadeia | A ID do lote de arquivos à qual os arquivos pertencem. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente edescpara ordem decrescente. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Antes | consulta | Não | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | Não | cadeia Valores possíveis: in_progress, , completed, failedcancelled |
Filtrar por status do arquivo. Um de in_progress, completed, failed, . cancelled |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Listar arquivos do repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Retorna uma lista de arquivos do repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores à qual os arquivos pertencem. |
| Limite | consulta | Não | inteiro | Um limite no número de objetos a serem retornados. O limite pode variar entre 1 e 100 e o o padrão é 20. |
| ordem | consulta | Não | cadeia Valores possíveis: asc, desc |
Classificar a ordem pelo created_at carimbo de data/hora dos objetos.
asc para ordem crescente edescpara ordem decrescente. |
| Depois | consulta | Não | cadeia | Um cursor para uso na paginação.
after é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir after=obj_foo para buscar a próxima página da lista. |
| Antes | consulta | Não | cadeia | Um cursor para uso na paginação.
before é uma ID de objeto que define seu lugar na lista.Por exemplo, se você fizer uma solicitação de lista e receber 100 objetos, terminando com obj_foo, seu A chamada subsequente pode incluir before=obj_foo para buscar a página anterior da lista. |
| filtro | consulta | Não | cadeia Valores possíveis: in_progress, , completed, failedcancelled |
Filtrar por status do arquivo. Um de in_progress, completed, failed, . cancelled |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.ListVectorStoreFilesResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Criar arquivo de repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files
Crie um arquivo de repositório de vetores anexando um arquivo a um repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores para o qual criar um Arquivo. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Não | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
Não | |
| File_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Obter o arquivo de repositório de vetores
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Recupera um arquivo de repositório de vetores.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| File_id | caminho | Sim | cadeia | A ID do arquivo que está sendo recuperado. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Atualizar atributos de arquivo do repositório de vetores
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | |
| File_id | caminho | Sim | cadeia |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Sim |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreFileObject |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Excluir arquivo de repositório de vetores
DELETE {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}
Exclua um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade do ponto de extremidade de arquivo de exclusão.
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores à qual o arquivo pertence. |
| File_id | caminho | Sim | cadeia | A ID do arquivo a ser excluído. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.DeleteVectorStoreFileResponse |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Recuperar o conteúdo do arquivo do repositório vetor
GET {endpoint}/openai/v1/vector_stores/{vector_store_id}/files/{file_id}/content
Recuperar o conteúdo do arquivo do repositório vetor
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores a ser pesquisado. |
| File_id | caminho | Sim | cadeia | A ID do arquivo para o qual recuperar o conteúdo. |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreSearchResultsPage |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Repositório de vetores de pesquisa
POST {endpoint}/openai/v1/vector_stores/{vector_store_id}/search
Repositório de vetores de pesquisa
Parâmetros de URI
| Nome | Em | Necessário | Tipo | Descrição |
|---|---|---|---|---|
| ponto de extremidade | caminho | Sim | cadeia | Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{your-resource-name}.openai.azure.com |
| api-version | consulta | Não | cadeia | A versão explícita da API de Modelos do Fábrica de IA do Azure a ser usada para essa solicitação.v1 se não for especificado de outra forma. |
| vector_store_id | caminho | Sim | cadeia | A ID do repositório de vetores a ser pesquisado. |
Corpo da Solicitação
Tipo de conteúdo: application/json
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtros | OpenAI.ComparisonFilter ou OpenAI.CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | Não | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. Restrições: min: 1, máximo: 50 |
Não | 10 |
| consulta | cadeia de caracteres ou matriz de cadeia de caracteres | Uma cadeia de caracteres de consulta para uma pesquisa | Sim | |
| ranking_options | OpenAI.VectorStoreSearchRequestRankingOptions | Não | ||
| └─ ranker | enumeração | Valores possíveis: none, , autodefault-2024-11-15 |
Não | |
| └─ limite_de_pontuação | Número | Restrições: min: 0, max: 1 | Não | |
| rewrite_query | Boolean | Se deseja reescrever a consulta de linguagem natural para pesquisa de vetor. | Não |
Respostas
Código de status: 200
Descrição: a solicitação foi bem-sucedida.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | OpenAI.VectorStoreSearchResultsPage |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Código de Status: padrão
Descrição: uma resposta de erro inesperada.
| Tipo de conteúdo | Tipo | Descrição |
|---|---|---|
| application/json | objeto |
Cabeçalhos de resposta:
| Cabeçalho | Tipo | Descrição |
|---|---|---|
| apim-request-id | cadeia | Uma ID de solicitação usada para fins de solução de problemas. |
Componentes
AudioSegment
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| avg_logprob | Número | A probabilidade média de log associada a este segmento de áudio. | Sim | |
| compression_ratio | Número | A taxa de compactação desse segmento de áudio. | Sim | |
| Final | Número | A hora em que esse segmento terminou em relação ao início do áudio traduzido. | Sim | |
| Id | inteiro | O índice baseado em 0 desse segmento em uma tradução. | Sim | |
| no_speech_prob | Número | A probabilidade de nenhuma detecção de fala nesse segmento de áudio. | Sim | |
| Procurar | inteiro | A posição de busca associada ao processamento desse segmento de áudio. As posições de busca são expressas como centésimos de segundos. O modelo pode processar vários segmentos de uma única posição de busca, portanto, enquanto a posição de busca nunca representará uma hora posterior à inicialização do segmento, o início do segmento pode representar um tempo significativamente mais tarde do que o posição de busca associada do segmento. |
Sim | |
| Começar | Número | A hora em que esse segmento começou em relação ao início do áudio traduzido. | Sim | |
| Temperatura | Número | A pontuação de temperatura associada a este segmento de áudio. | Sim | |
| enviar SMS | cadeia | O texto traduzido que fazia parte desse segmento de áudio. | Sim | |
| Tokens | matriz de inteiro | As IDs de token que correspondem ao texto traduzido neste segmento de áudio. | Sim |
AudioTaskLabel
Define os possíveis descritores para respostas de operação de áudio disponíveis.
| Propriedade | Valor |
|---|---|
| Descrição | Define os possíveis descritores para respostas de operação de áudio disponíveis. |
| Tipo | cadeia |
| Valores | transcribetranslate |
AudioTranslationSegment
Informações estendidas sobre um único segmento de dados de áudio traduzidos. Os segmentos geralmente representam cerca de 5 a 10 segundos de fala. Normalmente, os limites de segmento ocorrem entre palavras, mas não necessariamente frases.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| avg_logprob | Número | A probabilidade média de log associada a este segmento de áudio. | Sim | |
| compression_ratio | Número | A taxa de compactação desse segmento de áudio. | Sim | |
| Final | Número | A hora em que esse segmento terminou em relação ao início do áudio traduzido. | Sim | |
| Id | inteiro | O índice baseado em 0 desse segmento em uma tradução. | Sim | |
| no_speech_prob | Número | A probabilidade de nenhuma detecção de fala nesse segmento de áudio. | Sim | |
| Procurar | inteiro | A posição de busca associada ao processamento desse segmento de áudio. As posições de busca são expressas como centésimos de segundos. O modelo pode processar vários segmentos de uma única posição de busca, portanto, enquanto a posição de busca nunca representará uma hora posterior à inicialização do segmento, o início do segmento pode representar um tempo significativamente mais tarde do que o posição de busca associada do segmento. |
Sim | |
| Começar | Número | A hora em que esse segmento começou em relação ao início do áudio traduzido. | Sim | |
| Temperatura | Número | A pontuação de temperatura associada a este segmento de áudio. | Sim | |
| enviar SMS | cadeia | O texto traduzido que fazia parte desse segmento de áudio. | Sim | |
| Tokens | matriz de inteiro | As IDs de token que correspondem ao texto traduzido neste segmento de áudio. | Sim |
AzureAIFoundryModelsApiVersion
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | v1preview |
AzureAudioTranscriptionResponse
Informações de resultado de uma operação que transscreveu áudio falado em texto escrito.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Duração | Número | A duração total do áudio processado para produzir informações de transcrição que acompanham. | Não | |
| linguagem | cadeia | O idioma falado detectado nos dados de áudio transcritos. Isso é expresso como um código de idioma ISO-639-1 de duas letras, como 'en' ou 'fr'. |
Não | |
| Segmentos | matriz de OpenAI.TranscriptionSegment | Uma coleção de informações sobre o tempo, as probabilidades e outros detalhes de cada segmento de áudio processado. | Não | |
| tarefa | AudioTaskLabel | Define os possíveis descritores para respostas de operação de áudio disponíveis. | Não | |
| enviar SMS | cadeia | O texto transcrito para os dados de áudio fornecidos. | Sim | |
| Palavras | matriz de OpenAI.TranscriptionWord | Uma coleção de informações sobre o tempo de cada palavra processada. | Não |
AzureAudioTranslationResponse
Informações de resultado de uma operação que traduziu áudio falado em texto escrito.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Duração | Número | A duração total do áudio processado para produzir informações de tradução que acompanham. | Não | |
| linguagem | cadeia | O idioma falado detectado nos dados de áudio traduzidos. Isso é expresso como um código de idioma ISO-639-1 de duas letras, como 'en' ou 'fr'. |
Não | |
| Segmentos | matriz de AudioTranslationSegment | Uma coleção de informações sobre o tempo, as probabilidades e outros detalhes de cada segmento de áudio processado. | Não | |
| tarefa | AudioTaskLabel | Define os possíveis descritores para respostas de operação de áudio disponíveis. | Não | |
| enviar SMS | cadeia | O texto traduzido para os dados de áudio fornecidos. | Sim |
AzureCompletionsSamplingParams
Parâmetros de amostragem para controlar o comportamento das conclusões.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| max_completion_tokens | inteiro | Não | ||
| max_tokens | inteiro | O número máximo de tokens na saída gerada. | Não | |
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| response_format | OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonSchema ou OpenAI.ResponseFormatJsonObject | Não | ||
| Semente | inteiro | Um valor de semente inicializa a aleatoriedade durante a amostragem. | Não | 42 |
| Temperatura | Número | Uma temperatura mais alta aumenta a aleatoriedade nas saídas. | Não | 1 |
| Ferramentas | matriz de OpenAI.ChatCompletionTool | Não | ||
| top_p | Número | Uma alternativa à temperatura para amostragem de núcleo; 1.0 inclui todos os tokens. | Não | 1 |
AzureContentFilterBlocklistIdResult
Um item de resultado do filtro de conteúdo que associa uma ID de lista de bloqueio personalizada existente a um valor que indica se a lista de bloqueios correspondente resultou ou não na filtragem de conteúdo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtrada | Boolean | Se a lista de bloqueios associada resultou na filtragem do conteúdo. | Sim | |
| Id | cadeia | A ID da lista de bloqueios personalizada associada ao status filtrado. | Sim |
AzureContentFilterBlocklistResult
Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhes | matriz de objeto | Os pares de IDs individuais da lista de bloqueios e se resultaram em uma ação de filtragem. | Não | |
| Filtrada | Boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | Sim |
AzureContentFilterCompletionTextSpan
Uma representação de um intervalo de texto de conclusão, conforme usado pelos resultados do filtro de conteúdo do Azure OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| completion_end_offset | inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset para intervalos vazios. Esse campo é sempre maior que completion_start_offset para intervalos não vazios. | Sim | |
| completion_start_offset | inteiro | Deslocamento do ponto de código UTF32 que inicia o intervalo. | Sim |
AzureContentFilterCompletionTextSpanDetectionResult
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhes | matriz de AzureContentFilterCompletionTextSpan | Informações detalhadas sobre os intervalos de texto de conclusão detectados. | Sim | |
| Detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| Filtrada | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim |
AzureContentFilterCustomTopicIdResult
Um item de resultado do filtro de conteúdo que associa uma ID de tópico personalizada existente a um valor que indica se o tópico correspondente resultou ou não na detecção de conteúdo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detectado | Boolean | Se o tópico personalizado associado resultou na detecção do conteúdo. | Sim | |
| Id | cadeia | A ID do tópico personalizado associado ao status detectado. | Sim |
AzureContentFilterCustomTopicResult
Uma coleção de resultados de filtragem true/false para tópicos personalizados configurados.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhes | matriz de objeto | Os pares de IDs de tópico individuais e se são detectados. | Não | |
| Filtrada | Boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | Sim |
AzureContentFilterDetectionResult
Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi filtrado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| Filtrada | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim |
AzureContentFilterForResponsesAPI
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bloqueado | Boolean | Indique se a resposta está bloqueada. | Sim | |
| content_filter_offsets | AzureContentFilterResultOffsets | Sim | ||
| content_filter_results | AzureContentFilterResultsForResponsesAPI | Sim | ||
| └─ listas_personalizadas_de_bloqueio | AzureContentFilterBlocklistResult | Uma coleção de resultados de filtragem binária para listas de bloqueio personalizadas configuradas. | Não | |
| └─ tópicos_personalizados | AzureContentFilterCustomTopicResult | Uma coleção de resultados de filtragem binária para tópicos personalizados configurados. | Não | |
| └─ erro | objeto | Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. | Não | |
| └─ código | inteiro | Um código distinto e legível pelo computador associado ao erro. | Sim | |
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | Sim | |
| └─ ódio | AzureContentFilterSeverityResult | Uma categoria de filtro de conteúdo que pode se referir a qualquer conteúdo que ataque ou use pejorativo ou discriminatório idioma com referência a uma pessoa ou grupo de identidade com base em determinados atributos diferenciais desses grupos incluindo, mas não se limitando à raça, etnia, nacionalidade, identidade de gênero e expressão, orientação sexual, religião, status de imigração, status de habilidade, aparência pessoal e tamanho do corpo. |
Não | |
| └─ ataque_indireto | AzureContentFilterDetectionResult | Um resultado de detecção que descreve ataques a sistemas alimentados por modelos de IA generativos que podem acontecer sempre um aplicativo processa informações que não foram criadas diretamente pelo desenvolvedor do aplicativo ou o usuário. |
Não | |
| └─ desbloqueio | AzureContentFilterDetectionResult | Um resultado de detecção que descreve ataques de injeção de prompt do usuário, em que usuários mal-intencionados exploram deliberadamente vulnerabilidades do sistema para provocar um comportamento não autorizado da LLM. Isso pode levar a conteúdo inadequado geração ou violações de restrições impostas pelo sistema. |
Sim | |
| └─ personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Um resultado de detecção que descreve correspondências com informações de identificação pessoal com subcategorias configuráveis. | Não | |
| └─ palavrões | AzureContentFilterDetectionResult | Um resultado de detecção que identifica se a linguagem bruta, vulgar ou de outra forma de objeção está presente no Conteúdo. |
Não | |
| └─ protected_material_code | objeto | Um resultado de detecção que descreve uma correspondência com o código licenciado ou outro material de origem protegido. | Não | |
| └─ citação | objeto | Se disponível, os detalhes da citação que descrevem a licença associada e sua localização. | Não | |
| └─ URL | cadeia | A URL associada à licença. | Não | |
| Licença └─ | cadeia | O nome ou identificador da licença associada à detecção. | Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ protected_material_text | AzureContentFilterDetectionResult | Um resultado de detecção que descreve uma correspondência com o texto protegido por direitos autorais ou outro status. | Não | |
| └─ automutilação | AzureContentFilterSeverityResult | Uma categoria de filtro de conteúdo que descreve a linguagem relacionada a ações físicas destinadas a prejudicar de propósito, ferir, danificar o corpo ou se matar. |
Não | |
| └─ sexual | AzureContentFilterSeverityResult | Uma categoria de filtro de conteúdo para linguagem relacionada a órgãos anatômicos e genitais, relacionamentos românticos, atos retratados em termos eróticos ou afetuosos, gravidez, atos sexuais físicos, incluindo aqueles retratados como um agressão ou um ato violento sexual forçado contra a vontade, prostituição, pornografia e abuso. |
Não | |
| └─ task_adherence | AzureContentFilterDetectionResult | Um resultado de detecção que indica se o fluxo de execução ainda mantém o plano. | Sim | |
| └─ ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Não | ||
| └─ violência | AzureContentFilterSeverityResult | Uma categoria de filtro de conteúdo para linguagem relacionada a ações físicas destinadas a ferir, ferir, danificar ou matar alguém ou algo assim; descreve armas, armas e entidades relacionadas, como fabricantes, associações, legislação, e assim por diante. |
Não | |
| Source_type | cadeia | O nome do tipo de origem da mensagem. | Sim |
AzureContentFilterHarmExtensions
Extensões para categorias de danos, fornecendo opções de configuração adicionais.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| pii_sub_categories | matriz de AzurePiiSubCategory | Configuração para PIIHarmSubCategory(s). | Não |
AzureContentFilterImagePromptResults
Um resultado do filtro de conteúdo para o conteúdo da solicitação de entrada de uma operação de geração de imagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs individuais da lista de bloqueios e se resultaram em uma ação de filtragem. | Não | |
| └─ filtrado | Boolean | Um valor que indica se a lista de bloqueios produziu uma ação de filtragem. | Sim | |
| └─ id | cadeia | A ID da lista de bloqueios personalizada avaliada. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | Sim | |
| custom_topics | AzureContentFilterCustomTopicResult | Uma coleção de resultados de filtragem true/false para tópicos personalizados configurados. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs de tópico individuais e se são detectados. | Não | |
| └─ detectado | Boolean | Um valor que indica se o tópico foi detectado. | Sim | |
| └─ id | cadeia | A ID do tópico personalizado avaliado. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | Sim | |
| Odeio | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Jailbreak | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Sim | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| Profanidade | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| self_harm | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Sexual | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Violência | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim |
AzureContentFilterImageResponseResults
Um resultado de filtro de conteúdo para o conteúdo de resposta de saída de uma operação de geração de imagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Odeio | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| self_harm | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Sexual | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Violência | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim |
AzureContentFilterPersonallyIdentifiableInformationResult
Um resultado de detecção de filtro de conteúdo para informações de identificação pessoal que inclui extensões de danos.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| Filtrada | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| redacted_text | cadeia | O texto redigido com informações de PII removidas ou mascaradas. | Não | |
| sub_categories | matriz de AzurePiiSubCategoryResult | Resultados detalhados para PIIHarmSubCategory(s) individuais. | Não |
AzureContentFilterResultForChoice
Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs individuais da lista de bloqueios e se resultaram em uma ação de filtragem. | Não | |
| └─ filtrado | Boolean | Um valor que indica se a lista de bloqueios produziu uma ação de filtragem. | Sim | |
| └─ id | cadeia | A ID da lista de bloqueios personalizada avaliada. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | Sim | |
| custom_topics | AzureContentFilterCustomTopicResult | Uma coleção de resultados de filtragem true/false para tópicos personalizados configurados. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs de tópico individuais e se são detectados. | Não | |
| └─ detectado | Boolean | Um valor que indica se o tópico foi detectado. | Sim | |
| └─ id | cadeia | A ID do tópico personalizado avaliado. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | Sim | |
| erro | objeto | Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. | Não | |
| └─ código | inteiro | Um código distinto e legível pelo computador associado ao erro. | Sim | |
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | Sim | |
| Odeio | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Um resultado de detecção de filtro de conteúdo para informações de identificação pessoal que inclui extensões de danos. | Não | |
| └─ redacted_text | cadeia | O texto redigido com informações de PII removidas ou mascaradas. | Não | |
| └─ sub-categorias | matriz de AzurePiiSubCategoryResult | Resultados detalhados para PIIHarmSubCategory(s) individuais. | Não | |
| Profanidade | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| protected_material_code | objeto | Um resultado de detecção que descreve uma correspondência com o código licenciado ou outro material de origem protegido. | Não | |
| └─ citação | objeto | Se disponível, os detalhes da citação que descrevem a licença associada e sua localização. | Não | |
| └─ URL | cadeia | A URL associada à licença. | Não | |
| Licença └─ | cadeia | O nome ou identificador da licença associada à detecção. | Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| protected_material_text | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| self_harm | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Sexual | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Não | ||
| Violência | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim |
AzureContentFilterResultForPrompt
Um resultado de filtro de conteúdo associado a um único item de prompt de entrada em um sistema de IA gerador.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_filter_results | objeto | Os detalhes da categoria de filtro de conteúdo para o resultado. | Não | |
| └─ listas_personalizadas_de_bloqueio | AzureContentFilterBlocklistResult | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs individuais da lista de bloqueios e se resultaram em uma ação de filtragem. | Não | |
| └─ filtrado | Boolean | Um valor que indica se a lista de bloqueios produziu uma ação de filtragem. | Sim | |
| └─ id | cadeia | A ID da lista de bloqueios personalizada avaliada. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | Sim | |
| └─ tópicos_personalizados | AzureContentFilterCustomTopicResult | Uma coleção de resultados de filtragem true/false para tópicos personalizados configurados. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs de tópico individuais e se são detectados. | Não | |
| └─ detectado | Boolean | Um valor que indica se o tópico foi detectado. | Sim | |
| └─ id | cadeia | A ID do tópico personalizado avaliado. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | Sim | |
| └─ erro | objeto | Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. | Não | |
| └─ código | inteiro | Um código distinto e legível pelo computador associado ao erro. | Sim | |
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | Sim | |
| └─ ódio | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| └─ ataque_indireto | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Sim | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ desbloqueio | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Sim | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ palavrões | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ automutilação | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| └─ sexual | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| └─ violência | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| prompt_index | inteiro | O índice do prompt de entrada associado às categorias de resultado do filtro de conteúdo que acompanham. | Não |
AzureContentFilterResultOffsets
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| check_offset | inteiro | Sim | ||
| end_offset | inteiro | Sim | ||
| start_offset | inteiro | Sim |
AzureContentFilterResultsForResponsesAPI
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| custom_blocklists | AzureContentFilterBlocklistResult | Uma coleção de resultados de filtragem true/false para listas de bloqueio personalizadas configuradas. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs individuais da lista de bloqueios e se resultaram em uma ação de filtragem. | Não | |
| └─ filtrado | Boolean | Um valor que indica se a lista de bloqueios produziu uma ação de filtragem. | Sim | |
| └─ id | cadeia | A ID da lista de bloqueios personalizada avaliada. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se qualquer uma das listas de bloqueio detalhadas resultou em uma ação de filtragem. | Sim | |
| custom_topics | AzureContentFilterCustomTopicResult | Uma coleção de resultados de filtragem true/false para tópicos personalizados configurados. | Não | |
| └─ detalhes | matriz de objeto | Os pares de IDs de tópico individuais e se são detectados. | Não | |
| └─ detectado | Boolean | Um valor que indica se o tópico foi detectado. | Sim | |
| └─ id | cadeia | A ID do tópico personalizado avaliado. | Sim | |
| └─ filtrado | Boolean | Um valor que indica se algum dos tópicos detalhados resultou em uma ação de filtragem. | Sim | |
| erro | objeto | Se estiver presente, detalhes sobre um erro que impediu a filtragem de conteúdo de concluir sua avaliação. | Não | |
| └─ código | inteiro | Um código distinto e legível pelo computador associado ao erro. | Sim | |
| Mensagem └─ | cadeia | Uma mensagem legível por humanos associada ao erro. | Sim | |
| Odeio | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| indirect_attack | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| Jailbreak | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Sim | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| personally_identifiable_information | AzureContentFilterPersonallyIdentifiableInformationResult | Um resultado de detecção de filtro de conteúdo para informações de identificação pessoal que inclui extensões de danos. | Não | |
| └─ redacted_text | cadeia | O texto redigido com informações de PII removidas ou mascaradas. | Não | |
| └─ sub-categorias | matriz de AzurePiiSubCategoryResult | Resultados detalhados para PIIHarmSubCategory(s) individuais. | Não | |
| Profanidade | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| protected_material_code | objeto | Um resultado de detecção que descreve uma correspondência com o código licenciado ou outro material de origem protegido. | Não | |
| └─ citação | objeto | Se disponível, os detalhes da citação que descrevem a licença associada e sua localização. | Não | |
| └─ URL | cadeia | A URL associada à licença. | Não | |
| Licença └─ | cadeia | O nome ou identificador da licença associada à detecção. | Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| protected_material_text | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Não | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| self_harm | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| Sexual | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim | |
| task_adherence | AzureContentFilterDetectionResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi detectado e se o conteúdo foi Filtrada. |
Sim | |
| └─ detectado | Boolean | Se a categoria de conteúdo rotulado foi detectada no conteúdo. | Sim | |
| └─ filtrado | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| ungrounded_material | AzureContentFilterCompletionTextSpanDetectionResult | Não | ||
| Violência | AzureContentFilterSeverityResult | Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual o qualitativo o nível de severidade do conteúdo foi, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria. |
Não | |
| └─ filtrado | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| └─ severidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim |
AzureContentFilterSeverityResult
Um item de resultado de filtro de conteúdo rotulado que indica se o conteúdo foi filtrado e qual foi o nível de severidade qualitativa do conteúdo, conforme avaliado em relação à configuração do filtro de conteúdo para a categoria.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtrada | Boolean | Se a gravidade do conteúdo resultou em uma ação de filtragem de conteúdo. | Sim | |
| Gravidade | enumeração | A gravidade rotulada do conteúdo. Valores possíveis: safe, , low, mediumhigh |
Sim |
AzureFileExpiryAnchor
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | created_at |
AzureFineTuneReinforcementMethod
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Série | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | Sim | ||
| hiperparâmetros | OpenAI.FineTuneReinforcementHyperparameters | Os hiperparâmetros usados para o trabalho de ajuste fino de reforço. | Não | |
| response_format | ResponseFormatJSONSchemaRequest | Não | ||
| └─ esquema_json | objeto | Esquema JSON para o formato de resposta | Sim | |
| └─ tipo | enumeração | Tipo de formato de resposta Valores possíveis: json_schema |
Sim |
AzurePiiSubCategory
Configuração para PIIHarmSubCategory(s) individual dentro da estrutura de extensões de danos.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| detectar | Boolean | Se a detecção está habilitada para essa subcategoria. | Sim | |
| filtro | Boolean | Se o conteúdo que contém essa subcategoria deve ser bloqueado. | Sim | |
| Redigir | Boolean | Se o conteúdo que contém essa subcategoria deve ser redigido. | Sim | |
| sub_category | cadeia | O PIIHarmSubCategory que está sendo configurado. | Sim |
AzurePiiSubCategoryResult
Detalhes do resultado para PIIHarmSubCategory(s) individuais.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detectado | Boolean | Se a subcategoria de conteúdo rotulada foi detectada no conteúdo. | Sim | |
| Filtrada | Boolean | Se a detecção de conteúdo resultou em uma ação de filtragem de conteúdo para essa subcategoria. | Sim | |
| Redigido | Boolean | Se o conteúdo foi redigido para essa subcategoria. | Sim | |
| sub_category | cadeia | O PIIHarmSubCategory que foi avaliado. | Sim |
AzureResponsesSamplingParams
Parâmetros de amostragem para controlar o comportamento das respostas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| max_tokens | inteiro | O número máximo de tokens na saída gerada. | Não | |
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| Semente | inteiro | Um valor de semente inicializa a aleatoriedade durante a amostragem. | Não | 42 |
| Temperatura | Número | Uma temperatura mais alta aumenta a aleatoriedade nas saídas. | Não | 1 |
| enviar SMS | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | Não | ||
| Ferramentas | matriz de OpenAI.Tool | Não | ||
| top_p | Número | Uma alternativa à temperatura para amostragem de núcleo; 1.0 inclui todos os tokens. | Não | 1 |
AzureUserSecurityContext
O contexto de segurança do usuário contém vários parâmetros que descrevem o próprio aplicativo e o usuário final que interage com o aplicativo. Esses campos ajudam suas equipes de operações de segurança a investigar e mitigar incidentes de segurança fornecendo uma abordagem abrangente para proteger seus aplicativos de IA. Saiba mais sobre como proteger aplicativos de IA usando o Microsoft Defender para Nuvem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome_do_aplicativo | cadeia | O nome do aplicativo. Informações pessoais confidenciais não devem ser incluídas neste campo. | Não | |
| end_user_id | cadeia | Esse identificador é a ID de objeto de usuário do Microsoft Entra (antigo Azure Active Directory) usada para autenticar usuários finais no aplicativo de IA generativo. Informações pessoais confidenciais não devem ser incluídas neste campo. | Não | |
| end_user_tenant_id | cadeia | A ID do locatário do Microsoft 365 à qual o usuário final pertence. Ele é necessário quando o aplicativo de IA gerativo é multilocatário. | Não | |
| source_ip | cadeia | Captura o endereço IP do cliente original. | Não |
CopiedAccountDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| destinationResourceId | cadeia | A ID do recurso de destino para o qual o modelo foi copiado. | Sim | |
| região | cadeia | A região para a qual o modelo foi copiado. | Sim | |
| status | enumeração | O status da operação de cópia. Valores possíveis: Completed, , FailedInProgress |
Sim |
CopyModelRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| destinationResourceId | cadeia | A ID do recurso de destino a ser copiado. | Sim | |
| região | cadeia | A região para a qual copiar o modelo. | Sim |
CopyModelResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| checkpointedModelName | cadeia | A ID do modelo copiado. | Sim | |
| copiedAccountDetails | matriz de CopiedAccountDetails | A ID da ID do recurso de destino em que ela foi copiada | Sim | |
| fineTuningJobId | cadeia | A ID do trabalho de ajuste fino do qual o ponto de verificação foi copiado. | Sim |
CreateVideoBody
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| modelo | cadeia | O nome da implantação a ser usada para essa solicitação. | Sim | |
| solicitação | cadeia | Prompt de texto que descreve o vídeo a ser gerado. Restrições: minLength: 1 |
Sim | |
| Segundos | VideoSeconds | Durações de clipe com suporte, medidas em segundos. | Não | 4 |
| Tamanho | VideoSize | Dimensões de saída formatadas como {width}x{height}. |
Não | 720x1280 |
CreateVideoBodyWithInputReference
As propriedades de uma solicitação de trabalho de geração de vídeo com arquivos de mídia.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_reference | objeto | Referência de imagem opcional que orienta a geração. | Sim | |
| modelo | objeto | O nome da implantação a ser usada para essa solicitação. | Sim | |
| solicitação | objeto | Prompt de texto que descreve o vídeo a ser gerado. | Sim | |
| Segundos | objeto | Duração do clipe em segundos. O padrão é 4 segundos. | Não | |
| Tamanho | objeto | Resolução de saída formatada como largura x altura. O padrão é 720x1280. | Não |
CreateVideoRemixBody
Parâmetros para remixar um vídeo gerado existente.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| solicitação | cadeia | Prompt de texto atualizado que direciona a geração do remix. Restrições: minLength: 1 |
Sim |
DeletedVideoResource
Conteúdo de confirmação retornado após a exclusão de um vídeo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Indica que o recurso de vídeo foi excluído. | Sim | Verdade |
| Id | cadeia | Identificador do vídeo excluído. | Sim | |
| objeto | cadeia | O tipo de objeto que sinaliza a resposta de exclusão. | Sim | video.deleted |
Erro
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia | Sim | ||
| mensagem | cadeia | Sim |
EvalGraderEndpoint
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Cabeçalhos | objeto ou nulo | Cabeçalhos HTTP opcionais a serem incluídos em solicitações para o ponto de extremidade | Não | |
| Nome | cadeia | O nome do classificador | Sim | |
| pass_threshold | número ou nulo | Pontuação de limite opcional acima da qual a nota é considerada aprovada Se não for especificado, todas as pontuações serão consideradas válidas |
Não | |
| rate_limit | inteiro ou nulo | Limite de taxa opcional para solicitações por segundo para o ponto de extremidade Deve ser um inteiro positivo |
Não | |
| tipo | enumeração | Valores possíveis: endpoint |
Sim | |
| Url | cadeia | A URL HTTPS do ponto de extremidade a ser chamado para classificação Restrições: padrão: ^https:// |
Sim |
GraderEndpoint
Configuração do classificador de ponto de extremidade para avaliação de ponto de extremidade HTTP externo
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Cabeçalhos | objeto ou nulo | Cabeçalhos HTTP opcionais a serem incluídos em solicitações para o ponto de extremidade | Não | |
| Nome | cadeia | O nome do classificador | Sim | |
| pass_threshold | número ou nulo | Pontuação de limite opcional acima da qual a nota é considerada aprovada Se não for especificado, todas as pontuações serão consideradas válidas |
Não | |
| rate_limit | inteiro ou nulo | Limite de taxa opcional para solicitações por segundo para o ponto de extremidade Deve ser um inteiro positivo |
Não | |
| tipo | enumeração | Valores possíveis: endpoint |
Sim | |
| Url | cadeia | A URL HTTPS do ponto de extremidade a ser chamado para classificação Restrições: padrão: ^https:// |
Sim |
OpenAI.Annotation
Uma anotação que se aplica a um intervalo de texto de saída.
Discriminatório para OpenAI.Annotation
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
file_citation |
OpenAI.FileCitationBody |
url_citation |
OpenAI.UrlCitationBody |
container_file_citation |
OpenAI.ContainerFileCitationBody |
file_path |
OpenAI.FilePath |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.AnnotationType | Sim |
OpenAI.AnnotationType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | file_citationurl_citationcontainer_file_citationfile_path |
OpenAI.ApplyPatchCallOutputStatus
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | completedfailed |
OpenAI.ApplyPatchCallStatus
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | in_progresscompleted |
OpenAI.ApplyPatchCreateFileOperation
Instrução que descreve como criar um arquivo por meio da ferramenta apply_patch.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Diff | cadeia | Difusão a ser aplicada. | Sim | |
| caminho | cadeia | Caminho do arquivo a ser criado. | Sim | |
| tipo | enumeração | Crie um novo arquivo com a diferença fornecida. Valores possíveis: create_file |
Sim |
OpenAI.ApplyPatchDeleteFileOperation
Instrução que descreve como excluir um arquivo por meio da ferramenta apply_patch.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| caminho | cadeia | Caminho do arquivo a ser excluído. | Sim | |
| tipo | enumeração | Exclua o arquivo especificado. Valores possíveis: delete_file |
Sim |
OpenAI.ApplyPatchFileOperation
Uma das operações de create_file, delete_file ou update_file aplicadas por meio de apply_patch.
Discriminador para OpenAI.ApplyPatchFileOperation
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
create_file |
OpenAI.ApplyPatchCreateFileOperation |
delete_file |
OpenAI.ApplyPatchDeleteFileOperation |
update_file |
OpenAI.ApplyPatchUpdateFileOperation |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ApplyPatchFileOperationType | Sim |
OpenAI.ApplyPatchFileOperationType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | create_filedelete_fileupdate_file |
OpenAI.ApplyPatchToolParam
Permite que o assistente crie, exclua ou atualize arquivos usando diferenças unificadas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta. Sempre apply_patch.Valores possíveis: apply_patch |
Sim |
OpenAI.ApplyPatchUpdateFileOperation
Instrução que descreve como atualizar um arquivo por meio da ferramenta apply_patch.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Diff | cadeia | Difusão a ser aplicada. | Sim | |
| caminho | cadeia | Caminho do arquivo a ser atualizado. | Sim | |
| tipo | enumeração | Atualize um arquivo existente com a diferença fornecida. Valores possíveis: update_file |
Sim |
OpenAI.ApproximateLocation
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Cidade | cadeia de caracteres ou nulo | Não | ||
| País | cadeia de caracteres ou nulo | Não | ||
| região | cadeia de caracteres ou nulo | Não | ||
| Timezone | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo de aproximação de local. Sempre approximate.Valores possíveis: approximate |
Sim |
OpenAI.AssistantTool
Discriminador para OpenAI.AssistantTool
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
code_interpreter |
OpenAI.AssistantToolsCode |
file_search |
OpenAI.AssistantToolsFileSearch |
function |
OpenAI.AssistantToolsFunction |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.AssistantToolType | Sim |
OpenAI.AssistantToolType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | code_interpreterfile_searchfunction |
OpenAI.AssistantToolsCode
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta que está sendo definida: code_interpreterValores possíveis: code_interpreter |
Sim |
OpenAI.AssistantToolsFileSearch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_search | OpenAI.AssistantToolsFileSearchFileSearch | Não | ||
| └─ max_num_results (número máximo de resultados) | inteiro | Restrições: min: 1, máximo: 50 | Não | |
| └─ ranking_options | OpenAI.FileSearchRankingOptions | As opções de classificação para a pesquisa de arquivo. Se não for especificado, a ferramenta de pesquisa de arquivos usará o auto classificador e um score_threshold de 0.Consulte a documentação da ferramenta de pesquisa de arquivos para obter mais informações. |
Não | |
| tipo | enumeração | O tipo de ferramenta que está sendo definida: file_searchValores possíveis: file_search |
Sim |
OpenAI.AssistantToolsFileSearchFileSearch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| max_num_results | inteiro | Restrições: min: 1, máximo: 50 | Não | |
| ranking_options | OpenAI.FileSearchRankingOptions | As opções de classificação para a pesquisa de arquivo. Se não for especificado, a ferramenta de pesquisa de arquivos usará o auto classificador e um score_threshold de 0.Consulte a documentação da ferramenta de pesquisa de arquivos para obter mais informações. |
Não |
OpenAI.AssistantToolsFileSearchTypeOnly
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ferramenta que está sendo definida: file_searchValores possíveis: file_search |
Sim |
OpenAI.AssistantToolsFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.FunctionObject | Sim | ||
| tipo | enumeração | O tipo de ferramenta que está sendo definida: functionValores possíveis: function |
Sim |
OpenAI.AssistantsApiResponseFormatOption
Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.
Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais na Configuração para { "type": "json_object" } habilitar o modo JSON, o que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
Tipo: string ou OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonObject ou OpenAI.ResponseFormatJsonSchema
Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.
Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais na Configuração para { "type": "json_object" } habilitar o modo JSON, o que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto.
OpenAI.AssistantsApiToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Tipo: cadeia de caracteres ou OpenAI.AssistantsNamedToolChoice
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
OpenAI.AssistantsNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.AssistantsNamedToolChoiceFunction | Não | ||
| tipo | enumeração | O tipo da ferramenta. Se o tipo for function, o nome da função deverá ser definidoValores possíveis: function, , code_interpreterfile_search |
Sim |
OpenAI.AssistantsNamedToolChoiceFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | Sim |
OpenAI.AudioTranscription
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| linguagem | cadeia | O idioma do áudio de entrada. Fornecendo o idioma de entrada em Formato ISO-639-1 (por exemplo en)melhorará a precisão e a latência. |
Não | |
| modelo | cadeia | O modelo a ser usado para transcrição. As opções atuais são whisper-1, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15e gpt-4o-transcribegpt-4o-transcribe-diarize. Use gpt-4o-transcribe-diarize quando precisar de diarização com rótulos de alto-falante. |
Não | |
| solicitação | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um áudio anterior Segmento. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos (excluindo gpt-4o-transcribe-diarize), o prompt é uma cadeia de caracteres de texto livre, por exemplo, "esperar palavras relacionadas à tecnologia". |
Não |
OpenAI.AutoChunkingStrategyRequestParam
A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Sim |
OpenAI.Batch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| cancelled_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o lote foi cancelado. | Não | |
| cancelling_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o lote começou a cancelar. | Não | |
| completed_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote foi concluído. | Não | |
| completion_window | cadeia | O período no qual o lote deve ser processado. | Sim | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote foi criado. | Sim | |
| ponto de extremidade | cadeia | O ponto de extremidade da API OpenAI usado pelo lote. | Sim | |
| error_file_id | cadeia | A ID do arquivo que contém as saídas de solicitações com erros. | Não | |
| Erros | OpenAI.BatchErrors | Não | ||
| expired_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote expirou. | Não | |
| expires_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o lote expirará. | Não | |
| failed_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o lote falhou. | Não | |
| finalizing_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote começou a ser finalizado. | Não | |
| Id | cadeia | Sim | ||
| in_progress_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote começou a ser processado. | Não | |
| input_file_id | cadeia de caracteres ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | ID do modelo usada para processar o lote, como gpt-5-2025-08-07. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o modelo guia para procurar e comparar modelos disponíveis. |
Não | |
| objeto | enumeração | O tipo de objeto, que é sempre batch.Valores possíveis: batch |
Sim | |
| output_file_id | cadeia | A ID do arquivo que contém as saídas de solicitações executadas com êxito. | Não | |
| request_counts | OpenAI.BatchRequestCounts | A solicitação conta para status diferentes dentro do lote. | Não | |
| status | enumeração | O status atual do lote. Valores possíveis: validating, , failed, in_progress, finalizing, completed, expired, , , cancellingcancelled |
Sim | |
| uso | OpenAI.BatchUsage | Não | ||
| └─ tokens de entrada | inteiro | Sim | ||
| └─ detalhes_de_tokens_de_entrada | OpenAI.BatchUsageInputTokensDetails | Sim | ||
| └─ tokens_de_saída | inteiro | Sim | ||
| └─ output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Sim | ||
| └─ tokens_totais | inteiro | Sim |
OpenAI.BatchError
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia | Um código de erro que identifica o tipo de erro. | Não | |
| linha | inteiro ou nulo | Não | ||
| mensagem | cadeia | Uma mensagem legível por humanos fornecendo mais detalhes sobre o erro. | Não | |
| param | cadeia de caracteres ou nulo | Não |
OpenAI.BatchErrors
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.BatchError | Não | ||
| objeto | cadeia | Não |
OpenAI.BatchRequestCounts
A solicitação conta para status diferentes dentro do lote.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Concluído | inteiro | Número de solicitações que foram concluídas com êxito. | Sim | |
| Falhou | inteiro | Número de solicitações que falharam. | Sim | |
| Total | inteiro | Número total de solicitações no lote. | Sim |
OpenAI.BatchUsage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_tokens | inteiro | Sim | ||
| input_tokens_details | OpenAI.BatchUsageInputTokensDetails | Sim | ||
| output_tokens | inteiro | Sim | ||
| output_tokens_details | OpenAI.BatchUsageOutputTokensDetails | Sim | ||
| total_tokens | inteiro | Sim |
OpenAI.BatchUsageInputTokensDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| cached_tokens | inteiro | Sim |
OpenAI.BatchUsageOutputTokensDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| reasoning_tokens | inteiro | Sim |
OpenAI.ChatCompletionAllowedTools
Restringe as ferramentas disponíveis para o modelo a um conjunto predefinido.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Modo | enumeração | Restringe as ferramentas disponíveis para o modelo a um conjunto predefinido.auto permite que o modelo escolha entre as ferramentas permitidas e gere umMensagem. required requer que o modelo chame uma ou mais das ferramentas permitidas.Valores possíveis: auto, required |
Sim | |
| Ferramentas | matriz de objeto | Uma lista de definições de ferramentas que o modelo deve ter permissão para chamar. Para a API de Conclusões de Chat, a lista de definições de ferramentas pode ser semelhante a: json<br> [<br> { "type": "function", "function": { "name": "get_weather" } },<br> { "type": "function", "function": { "name": "get_time" } }<br> ]<br> |
Sim |
OpenAI.ChatCompletionAllowedToolsChoice
Restringe as ferramentas disponíveis para o modelo a um conjunto predefinido.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| allowed_tools | OpenAI.ChatCompletionAllowedTools | Restringe as ferramentas disponíveis para o modelo a um conjunto predefinido. | Sim | |
| tipo | enumeração | Tipo de configuração de ferramenta permitido. Sempre allowed_tools.Valores possíveis: allowed_tools |
Sim |
OpenAI.ChatCompletionFunctionCallOption
Especificar uma função específica por meio {"name": "my_function"} de força o modelo a chamar essa função.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | O nome da função a ser chamada. | Sim |
OpenAI.ChatCompletionFunctions
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
| Nome | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
| Parâmetros | OpenAI.FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
OpenAI.ChatCompletionMessageCustomToolCall
Uma chamada para uma ferramenta personalizada criada pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Personalizado | OpenAI.ChatCompletionMessageCustomToolCallCustom | Sim | ||
| └─ entrada | cadeia | Sim | ||
| └─ nome | cadeia | Sim | ||
| Id | cadeia | A ID da chamada da ferramenta. | Sim | |
| tipo | enumeração | O tipo da ferramenta. Sempre custom.Valores possíveis: custom |
Sim |
OpenAI.ChatCompletionMessageCustomToolCallCustom
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | cadeia | Sim | ||
| Nome | cadeia | Sim |
OpenAI.ChatCompletionMessageToolCall
Uma chamada para uma ferramenta de função criada pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.ChatCompletionMessageToolCallFunction | Sim | ||
| Argumentos └─ | cadeia | Sim | ||
| └─ nome | cadeia | Sim | ||
| Id | cadeia | A ID da chamada da ferramenta. | Sim | |
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: function |
Sim |
OpenAI.ChatCompletionMessageToolCallChunk
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.ChatCompletionMessageToolCallChunkFunction | Não | ||
| Id | cadeia | A ID da chamada da ferramenta. | Não | |
| indexar | inteiro | Sim | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: function |
Não |
OpenAI.ChatCompletionMessageToolCallChunkFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Não | ||
| Nome | cadeia | Não |
OpenAI.ChatCompletionMessageToolCallFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Sim | ||
| Nome | cadeia | Sim |
OpenAI.ChatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
OpenAI.ChatCompletionMessageToolCallsItem
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
OpenAI.ChatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.ChatCompletionNamedToolChoiceFunction | Sim | ||
| tipo | enumeração | Para a chamada de função, o tipo é sempre function.Valores possíveis: function |
Sim |
OpenAI.ChatCompletionNamedToolChoiceCustom
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta personalizada específica.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Personalizado | OpenAI.ChatCompletionNamedToolChoiceCustomCustom | Sim | ||
| tipo | enumeração | Para chamada de ferramenta personalizada, o tipo é sempre custom.Valores possíveis: custom |
Sim |
OpenAI.ChatCompletionNamedToolChoiceCustomCustom
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | Sim |
OpenAI.ChatCompletionNamedToolChoiceFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | Sim |
OpenAI.ChatCompletionRequestAssistantMessage
Mensagens enviadas pelo modelo em resposta às mensagens do usuário.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Áudio | OpenAI.ChatCompletionRequestAssistantMessageAudio ou null | Dados sobre uma resposta de áudio anterior do modelo. | Não | |
| conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestAssistantMessageContentPart ou null | Não | ||
| function_call | OpenAI.ChatCompletionRequestAssistantMessageFunctionCall ou null | Não | ||
| Nome | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não | |
| Recusa | cadeia de caracteres ou nulo | Não | ||
| função | enumeração | A função do autor das mensagens, nesse caso assistant.Valores possíveis: assistant |
Sim | |
| tool_calls | OpenAI.ChatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não |
OpenAI.ChatCompletionRequestAssistantMessageAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | Sim |
OpenAI.ChatCompletionRequestAssistantMessageContentPart
Discriminador para OpenAI.ChatCompletionRequestAssistantMessageContentPart
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
refusal |
OpenAI.ChatCompletionRequestMessageContentPartRefusal |
text |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ChatCompletionRequestAssistantMessageContentPartType | Sim |
OpenAI.ChatCompletionRequestAssistantMessageContentPartChatCompletionRequestMessageContentPartText
Saiba mais sobre entradas de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Sim | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Sim |
OpenAI.ChatCompletionRequestAssistantMessageContentPartType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | textrefusal |
OpenAI.ChatCompletionRequestAssistantMessageFunctionCall
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Sim | ||
| Nome | cadeia | Sim |
OpenAI.ChatCompletionRequestDeveloperMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos o1 e mais recentes, developer as mensagens substituem as mensagens anteriores system .
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestMessageContentPartText | O conteúdo da mensagem do desenvolvedor. | Sim | |
| Nome | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não | |
| função | enumeração | A função do autor das mensagens, nesse caso developer.Valores possíveis: developer |
Sim |
OpenAI.ChatCompletionRequestFunctionMessage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou nulo | Sim | ||
| Nome | cadeia | O nome da função a ser chamada. | Sim | |
| função | enumeração | A função do autor das mensagens, nesse caso function.Valores possíveis: function |
Sim |
OpenAI.ChatCompletionRequestMessage
Discriminador para OpenAI.ChatCompletionRequestMessage
Esse componente usa a propriedade role para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
assistant |
OpenAI.ChatCompletionRequestAssistantMessage |
developer |
OpenAI.ChatCompletionRequestDeveloperMessage |
function |
OpenAI.ChatCompletionRequestFunctionMessage |
system |
OpenAI.ChatCompletionRequestSystemMessage |
user |
OpenAI.ChatCompletionRequestUserMessage |
tool |
OpenAI.ChatCompletionRequestToolMessage |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.ChatCompletionRequestMessageType | Sim |
OpenAI.ChatCompletionRequestMessageContentPartAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_audio | OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio | Sim | ||
| tipo | enumeração | O tipo da parte de conteúdo. Sempre input_audio.Valores possíveis: input_audio |
Sim |
OpenAI.ChatCompletionRequestMessageContentPartAudioInputAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | cadeia | Sim | ||
| Formato | enumeração | Valores possíveis: wav, mp3 |
Sim |
OpenAI.ChatCompletionRequestMessageContentPartFile
Saiba mais sobre as entradas de arquivo para a geração de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| arquivo | OpenAI.ChatCompletionRequestMessageContentPartFileFileFile | Sim | ||
| └─ dados_do_arquivo | cadeia | Não | ||
| └─ identificador_de_arquivo | cadeia | Não | ||
| └─ nome do arquivo | cadeia | Não | ||
| tipo | enumeração | O tipo da parte de conteúdo. Sempre file.Valores possíveis: file |
Sim |
OpenAI.ChatCompletionRequestMessageContentPartFileFileFile
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_data | cadeia | Não | ||
| File_id | cadeia | Não | ||
| Filename | cadeia | Não |
OpenAI.ChatCompletionRequestMessageContentPartImage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| image_url | OpenAI.ChatCompletionRequestMessageContentPartImageImageUrl | Sim | ||
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim |
OpenAI.ChatCompletionRequestMessageContentPartImageImageUrl
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | enumeração | Valores possíveis: auto, , lowhigh |
Não | |
| Url | cadeia | Sim |
OpenAI.ChatCompletionRequestMessageContentPartRefusal
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Recusa | cadeia | A mensagem de recusa gerada pelo modelo. | Sim | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: refusal |
Sim |
OpenAI.ChatCompletionRequestMessageContentPartText
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Sim | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Sim |
OpenAI.ChatCompletionRequestMessageType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | developersystemuserassistanttoolfunction |
OpenAI.ChatCompletionRequestSystemMessage
Instruções fornecidas pelo desenvolvedor que o modelo deve seguir, independentemente das mensagens enviadas pelo usuário. Com modelos o1 e mais recentes, use developer mensagens para essa finalidade.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestSystemMessageContentPart | O conteúdo da mensagem do sistema. | Sim | |
| Nome | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não | |
| função | enumeração | A função do autor das mensagens, nesse caso system.Valores possíveis: system |
Sim |
OpenAI.ChatCompletionRequestSystemMessageContentPart
Referências: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestToolMessage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestToolMessageContentPart | O conteúdo da mensagem da ferramenta. | Sim | |
| função | enumeração | A função do autor das mensagens, nesse caso tool.Valores possíveis: tool |
Sim | |
| tool_call_id | cadeia | Chamada de ferramenta à qual esta mensagem está respondendo. | Sim |
OpenAI.ChatCompletionRequestToolMessageContentPart
Referências: OpenAI.ChatCompletionRequestMessageContentPartText
OpenAI.ChatCompletionRequestUserMessage
Mensagens enviadas por um usuário final, contendo prompts ou informações de contexto adicionais.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestUserMessageContentPart | O conteúdo da mensagem do usuário. | Sim | |
| Nome | cadeia | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não | |
| função | enumeração | A função do autor das mensagens, nesse caso user.Valores possíveis: user |
Sim |
OpenAI.ChatCompletionRequestUserMessageContentPart
Discriminador para OpenAI.ChatCompletionRequestUserMessageContentPart
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ChatCompletionRequestUserMessageContentPartType | Sim |
OpenAI.ChatCompletionRequestUserMessageContentPartChatCompletionRequestMessageContentPartText
Saiba mais sobre entradas de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto. | Sim | |
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: text |
Sim |
OpenAI.ChatCompletionRequestUserMessageContentPartType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | textimage_urlinput_audiofile |
OpenAI.ChatCompletionResponseMessage
Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anotações | matriz de OpenAI.ChatCompletionResponseMessageAnnotations | Anotações para a mensagem, quando aplicável, como ao usar o Ferramenta de pesquisa na Web. |
Não | |
| Áudio | OpenAI.ChatCompletionResponseMessageAudio ou null | Não | ||
| conteúdo | cadeia de caracteres ou nulo | Sim | ||
| function_call | OpenAI.ChatCompletionResponseMessageFunctionCall | Não | ||
| Argumentos └─ | cadeia | Sim | ||
| └─ nome | cadeia | Sim | ||
| reasoning_content | cadeia | Uma propriedade de extensão específica do Azure que contém o conteúdo de raciocínio gerado de modelos com suporte. | Não | |
| Recusa | cadeia de caracteres ou nulo | Sim | ||
| função | enumeração | A função do autor desta mensagem. Valores possíveis: assistant |
Sim | |
| tool_calls | OpenAI.ChatCompletionMessageToolCallsItem | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não |
OpenAI.ChatCompletionResponseMessageAnnotations
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: url_citation |
Sim | |
| url_citation | OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation | Sim |
OpenAI.ChatCompletionResponseMessageAnnotationsUrlCitation
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| end_index | inteiro | Sim | ||
| start_index | inteiro | Sim | ||
| Título | cadeia | Sim | ||
| Url | cadeia | Sim |
OpenAI.ChatCompletionResponseMessageAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | cadeia | Sim | ||
| expires_at | inteiro | Sim | ||
| Id | cadeia | Sim | ||
| transcrição | cadeia | Sim |
OpenAI.ChatCompletionResponseMessageFunctionCall
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Sim | ||
| Nome | cadeia | Sim |
OpenAI.ChatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| include_obfuscation | Boolean | Quando true, a ofuscação de fluxo será habilitada. Stream obfuscation adds caracteres aleatórios para um obfuscation campo em eventos delta de streaming paranormalize os tamanhos de carga como uma mitigação para determinados ataques de canal lateral. Esses campos de ofuscação são incluídos por padrão, mas adicionam uma pequena quantidade de sobrecarga para o fluxo de dados. Você pode definir include_obfuscation comofalse para otimizar para largura de banda se você confiar nos links de rede entre seu aplicativo e a API OpenAI. |
Não | |
| include_usage | Boolean | Se definido, uma parte adicional será transmitida antes do data: [DONE]Mensagem. O usage campo nesta parte mostra as estatísticas de uso do tokenpara toda a solicitação, e o choices campo sempre será um vazioMatriz. Todas as outras partes também incluirão um usage campo, mas com um valor nuloValor. NOTA: Se o fluxo for interrompido, você poderá não receber o parte de uso final que contém o uso total do token para a solicitação. |
Não |
OpenAI.ChatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou nulo | Não | ||
| function_call | OpenAI.ChatCompletionStreamResponseDeltaFunctionCall | Não | ||
| Argumentos └─ | cadeia | Não | ||
| └─ nome | cadeia | Não | ||
| reasoning_content | cadeia | Uma propriedade de extensão específica do Azure que contém o conteúdo de raciocínio gerado de modelos com suporte. | Não | |
| Recusa | cadeia de caracteres ou nulo | Não | ||
| função | enumeração | A função do autor desta mensagem. Valores possíveis: developer, , system, user, assistant, tool |
Não | |
| tool_calls | matriz de OpenAI.ChatCompletionMessageToolCallChunk | Não |
OpenAI.ChatCompletionStreamResponseDeltaFunctionCall
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Não | ||
| Nome | cadeia | Não |
OpenAI.ChatCompletionTokenLogprob
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bytes | matriz de inteiro ou nulo | Sim | ||
| logprob | Número | A probabilidade de log desse token, se ele estiver dentro dos 20 tokens mais prováveis. Caso contrário, o valor -9999.0 é usado para significar que o token é muito improvável. |
Sim | |
| símbolo | cadeia | O token. | Sim | |
| top_logprobs | matriz de OpenAI.ChatCompletionTokenLogprobTopLogprobs | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de solicitados retornados top_logprobs . |
Sim |
OpenAI.ChatCompletionTokenLogprobTopLogprobs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bytes | matriz de inteiro ou nulo | Sim | ||
| logprob | Número | Sim | ||
| símbolo | cadeia | Sim |
OpenAI.ChatCompletionTool
Uma ferramenta de função que pode ser usada para gerar uma resposta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.FunctionObject | Sim | ||
| tipo | enumeração | O tipo da ferramenta. Atualmente, só function há suporte.Valores possíveis: function |
Sim |
OpenAI.ChatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes.
Tipo: string ou OpenAI.ChatCompletionAllowedToolsChoice ou OpenAI.ChatCompletionNamedToolChoice ou OpenAI.ChatCompletionNamedToolChoiceCustom
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
Especificar uma ferramenta específica por meio {"type": "function", "function": {"name": "my_function"}} de força o modelo a chamar essa ferramenta.
none é o padrão quando nenhuma ferramenta está presente.
auto é o padrão se as ferramentas estiverem presentes.
OpenAI.ChunkingStrategyRequestParam
A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio.
Discriminatório para OpenAI.ChunkingStrategyRequestParam
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
auto |
OpenAI.AutoChunkingStrategyRequestParam |
static |
OpenAI.StaticChunkingStrategyRequestParam |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ChunkingStrategyRequestParamType | Sim |
OpenAI.ChunkingStrategyRequestParamType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | autostatic |
OpenAI.ChunkingStrategyResponse
A estratégia usada para dividir o arquivo.
Discriminador para OpenAI.ChunkingStrategyResponse
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
static |
OpenAI.StaticChunkingStrategyResponseParam |
other |
OpenAI.OtherChunkingStrategyResponseParam |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ChunkingStrategyResponseType | Sim |
OpenAI.ChunkingStrategyResponseType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | staticother |
OpenAI.ClickButtonType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | leftrightwheelbackforward |
OpenAI.ClickParam
Uma ação de clique.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Botão | OpenAI.ClickButtonType | Sim | ||
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique, essa propriedade é sempre click.Valores possíveis: click |
Sim | |
| X | inteiro | A coordenada x em que o clique ocorreu. | Sim | |
| Y | inteiro | A coordenada y em que o clique ocorreu. | Sim |
OpenAI.CodeInterpreterContainerAuto
Configuração para um contêiner de interpretador de código. Opcionalmente, especifique as IDs dos arquivos nos quais executar o código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_ids | matriz de cadeia de caracteres | Uma lista opcional de arquivos carregados a serem disponibilizados para seu código. | Não | |
| memory_limit | OpenAI.ContainerMemoryLimit ou null | Não | ||
| tipo | enumeração | Sempre auto.Valores possíveis: auto |
Sim |
OpenAI.CodeInterpreterOutputImage
A saída da imagem do interpretador de código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo da saída. Sempre image.Valores possíveis: image |
Sim | |
| Url | cadeia | A URL da saída da imagem do interpretador de código. | Sim |
OpenAI.CodeInterpreterOutputLogs
A saída de logs do interpretador de código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| logs | cadeia | A saída de logs do interpretador de código. | Sim | |
| tipo | enumeração | O tipo da saída. Sempre logs.Valores possíveis: logs |
Sim |
OpenAI.CodeInterpreterTool
Uma ferramenta que executa o código Python para ajudar a gerar uma resposta a um prompt.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| contêiner | string or OpenAI.CodeInterpreterContainerAuto | O contêiner do interpretador de código. Pode ser uma ID de contêiner ou um objeto que especifica as IDs de arquivo carregadas a serem disponibilizadas para seu código, juntamente com um configuração opcional memory_limit . |
Sim | |
| tipo | enumeração | O tipo da ferramenta de interpretador de código. Sempre code_interpreter.Valores possíveis: code_interpreter |
Sim |
OpenAI.ComparisonFilter
Um filtro usado para comparar uma chave de atributo especificada com um determinado valor usando uma operação de comparação definida.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| chave | cadeia | A chave a ser comparada com o valor. | Sim | |
| tipo | enumeração | Especifica o operador de comparação: eq, , ne, gt, gte, lt, , lte, in, nin.- eq:Equals- ne: não é igual a- gt: maior que- gte: maior ou igual a- lt: menor que- lte: menor ou igual a- in:Em- nin: não emValores possíveis: eq, , ne, gt, gte, , ltlte |
Sim | |
| Valor | cadeia de caracteres ou número ou booliano ou matriz de OpenAI.ComparisonFilterValueItems | O valor a ser comparado com a chave de atributo; dá suporte a tipos de cadeia de caracteres, número ou booliano. | Sim |
OpenAI.ComparisonFilterValueItems
Esse esquema aceita um dos seguintes tipos:
- String
- Número
OpenAI.CompletionUsage
Estatísticas de uso para a solicitação de conclusão.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens na conclusão gerada. | Sim | |
| completion_tokens_details | OpenAI.CompletionUsageCompletionTokensDetails | Não | ||
| └─ tokens_de_predição_aceitos | inteiro | Não | ||
| └─ audio_tokens | inteiro | Não | ||
| └─ tokens_de_raciocínio | inteiro | Não | ||
| └─ tokens_de_predição_rejeitados | inteiro | Não | ||
| prompt_tokens | inteiro | Número de tokens no prompt. | Sim | |
| prompt_tokens_details | OpenAI.CompletionUsagePromptTokensDetails | Não | ||
| └─ audio_tokens | inteiro | Não | ||
| └─ tokens em cache | inteiro | Não | ||
| total_tokens | inteiro | Número total de tokens usados na solicitação (prompt + conclusão). | Sim |
OpenAI.CompletionUsageCompletionTokensDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| accepted_prediction_tokens | inteiro | Não | ||
| audio_tokens | inteiro | Não | ||
| reasoning_tokens | inteiro | Não | ||
| rejected_prediction_tokens | inteiro | Não |
OpenAI.CompletionUsagePromptTokensDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| audio_tokens | inteiro | Não | ||
| cached_tokens | inteiro | Não |
OpenAI.CompoundFilter
Combinar vários filtros usando and ou or.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtros | matriz de OpenAI.ComparisonFilter ou objeto | Matriz de filtros a serem combinados. Os itens podem ser ComparisonFilter ou CompoundFilter. |
Sim | |
| tipo | enumeração | Tipo de operação: and ou or.Valores possíveis: and, or |
Sim |
OpenAI.ComputerAction
Discriminatório para OpenAI.ComputerAction
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
click |
OpenAI.ClickParam |
double_click |
OpenAI.DoubleClickAction |
drag |
OpenAI.Drag |
keypress |
OpenAI.KeyPressAction |
move |
OpenAI.Move |
screenshot |
OpenAI.Screenshot |
scroll |
OpenAI.Scroll |
type |
OpenAI.Type |
wait |
OpenAI.Wait |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ComputerActionType | Sim |
OpenAI.ComputerActionType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | clickdouble_clickdragkeypressmovescreenshotscrolltypewait |
OpenAI.ComputerCallSafetyCheckParam
Uma verificação de segurança pendente para a chamada do computador.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID da verificação de segurança pendente. | Sim | |
| mensagem | cadeia de caracteres ou nulo | Não |
OpenAI.ComputerEnvironment
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | windowsmaclinuxubuntubrowser |
OpenAI.ComputerScreenshotContent
Uma captura de tela de um computador.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia de caracteres ou nulo | Sim | ||
| image_url | cadeia de caracteres ou nulo | Sim | ||
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definida como computer_screenshot.Valores possíveis: computer_screenshot |
Sim |
OpenAI.ComputerScreenshotImage
Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | O identificador de um arquivo carregado que contém a captura de tela. | Não | |
| image_url | cadeia | A URL da imagem de captura de tela. | Não | |
| tipo | enumeração | Especifica o tipo de evento. Para uma captura de tela do computador, essa propriedade é sempre definido como computer_screenshot.Valores possíveis: computer_screenshot |
Sim |
OpenAI.ComputerUsePreviewTool
Uma ferramenta que controla um computador virtual.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| display_height | inteiro | A altura da exibição do computador. | Sim | |
| display_width | inteiro | A largura da exibição do computador. | Sim | |
| ambiente | OpenAI.ComputerEnvironment | Sim | ||
| tipo | enumeração | O tipo da ferramenta de uso do computador. Sempre computer_use_preview.Valores possíveis: computer_use_preview |
Sim |
OpenAI.ContainerFileCitationBody
Uma citação para um arquivo de contêiner usado para gerar uma resposta de modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| container_id | cadeia | A ID do arquivo de contêiner. | Sim | |
| end_index | inteiro | O índice do último caractere da citação do arquivo de contêiner na mensagem. | Sim | |
| File_id | cadeia | A ID do arquivo. | Sim | |
| Filename | cadeia | O nome do arquivo de contêiner citado. | Sim | |
| start_index | inteiro | O índice do primeiro caractere da citação do arquivo de contêiner na mensagem. | Sim | |
| tipo | enumeração | O tipo da citação de arquivo de contêiner. Sempre container_file_citation.Valores possíveis: container_file_citation |
Sim |
OpenAI.ContainerFileListResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.ContainerFileResource | Uma lista de arquivos de contêiner. | Sim | |
| first_id | cadeia | A ID do primeiro arquivo na lista. | Sim | |
| has_more | Boolean | Se há mais arquivos disponíveis. | Sim | |
| last_id | cadeia | A ID do último arquivo na lista. | Sim | |
| objeto | enumeração | O tipo de objeto retornado deve ser 'list'. Valores possíveis: list |
Sim |
OpenAI.ContainerFileResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bytes | inteiro | Tamanho do arquivo em bytes. | Sim | |
| container_id | cadeia | O contêiner ao qual este arquivo pertence. | Sim | |
| created_at | inteiro | Unix timestamp (em segundos) quando o arquivo foi criado. | Sim | |
| Id | cadeia | Identificador exclusivo para o arquivo. | Sim | |
| objeto | enumeração | O tipo desse objeto (container.file).Valores possíveis: container.file |
Sim | |
| caminho | cadeia | Caminho do arquivo no contêiner. | Sim | |
| fonte | cadeia | Origem do arquivo (por exemplo, user, ). assistant |
Sim |
OpenAI.ContainerListResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.ContainerResource | Uma lista de contêineres. | Sim | |
| first_id | cadeia | A ID do primeiro contêiner da lista. | Sim | |
| has_more | Boolean | Se há mais contêineres disponíveis. | Sim | |
| last_id | cadeia | A ID do último contêiner da lista. | Sim | |
| objeto | enumeração | O tipo de objeto retornado deve ser 'list'. Valores possíveis: list |
Sim |
OpenAI.ContainerMemoryLimit
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | 1g4g16g64g |
OpenAI.ContainerResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | Unix timestamp (em segundos) quando o contêiner foi criado. | Sim | |
| expires_after | OpenAI.ContainerResourceExpiresAfter | Não | ||
| └─ âncora | enumeração | Valores possíveis: last_active_at |
Não | |
| └─ minutos | inteiro | Não | ||
| Id | cadeia | Identificador exclusivo para o contêiner. | Sim | |
| last_active_at | inteiro | Unix timestamp (em segundos) quando o contêiner estava ativo pela última vez. | Não | |
| memory_limit | enumeração | O limite de memória configurado para o contêiner. Valores possíveis: 1g, , 4g, 16g64g |
Não | |
| Nome | cadeia | Nome do contêiner. | Sim | |
| objeto | cadeia | O tipo desse objeto. | Sim | |
| status | cadeia | Status do contêiner (por exemplo, ativo, excluído). | Sim |
OpenAI.ContainerResourceExpiresAfter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| âncora | enumeração | Valores possíveis: last_active_at |
Não | |
| Minutos | inteiro | Não |
OpenAI.ConversationItem
Um único item dentro de uma conversa. O conjunto de tipos possíveis é o mesmo que o output tipo de um objeto Response.
Discriminador para OpenAI.ConversationItem
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ConversationItemType | Sim |
OpenAI.ConversationItemApplyPatchToolCall
Uma chamada de ferramenta que aplica diferenças de arquivo criando, excluindo ou atualizando arquivos.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch. Populado quando esse item é retornado por meio da API. | Sim | |
| operação | OpenAI.ApplyPatchFileOperation | Uma das operações de create_file, delete_file ou update_file aplicadas por meio de apply_patch. | Sim | |
| └─ tipo | OpenAI.ApplyPatchFileOperationType | Sim | ||
| status | OpenAI.ApplyPatchCallStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre apply_patch_call.Valores possíveis: apply_patch_call |
Sim |
OpenAI.ConversationItemApplyPatchToolCallOutput
A saída emitida por uma chamada de ferramenta aplicar patch.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa saída de chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da saída de chamada da ferramenta aplicar patch. Populado quando esse item é retornado por meio da API. | Sim | |
| saída | cadeia de caracteres ou nulo | Não | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre apply_patch_call_output.Valores possíveis: apply_patch_call_output |
Sim |
OpenAI.ConversationItemCodeInterpreterToolCall
Uma chamada de ferramenta para executar o código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia de caracteres ou nulo | Sim | ||
| container_id | cadeia | A ID do contêiner usado para executar o código. | Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta interpretador de código. | Sim | |
| Saídas | matriz de OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null | Sim | ||
| status | enumeração | O status da chamada da ferramenta interpretador de código. Os valores válidos são in_progress, , completed, incomplete, interpretinge failed.Valores possíveis: in_progress, , completed, incomplete, interpreting, failed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta interpretador de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Sim |
OpenAI.ConversationItemComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador. Consulte o guia de uso do computador para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.ComputerAction | Sim | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. | Sim | |
| Id | cadeia | A ID exclusiva da chamada do computador. | Sim | |
| pending_safety_checks | matriz de OpenAI.ComputerCallSafetyCheckParam | As verificações de segurança pendentes para a chamada do computador. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da chamada do computador. Sempre computer_call.Valores possíveis: computer_call |
Sim |
OpenAI.ConversationItemComputerToolCallOutputResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz de OpenAI.ComputerCallSafetyCheckParam | As verificações de segurança relatadas pela API que foram confirmadas pela Desenvolvedor. |
Não | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. | Sim | |
| Id | cadeia | A ID da saída da chamada da ferramenta de computador. | Não | |
| saída | OpenAI.ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. | Sim | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedouincomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Sim |
OpenAI.ConversationItemCustomToolCall
Uma chamada para uma ferramenta personalizada criada pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | Um identificador usado para mapear essa chamada de ferramenta personalizada para uma saída de chamada de ferramenta. | Sim | |
| Id | cadeia | A ID exclusiva da chamada de ferramenta personalizada na plataforma OpenAI. | Não | |
| entrada | cadeia | A entrada para a chamada de ferramenta personalizada gerada pelo modelo. | Sim | |
| Nome | cadeia | O nome da ferramenta personalizada que está sendo chamada. | Sim | |
| tipo | enumeração | O tipo da chamada de ferramenta personalizada. Sempre custom_tool_call.Valores possíveis: custom_tool_call |
Sim |
OpenAI.ConversationItemCustomToolCallOutput
A saída de uma chamada de ferramenta personalizada do código, sendo enviada de volta para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID da chamada, usada para mapear essa saída de chamada de ferramenta personalizada para uma chamada de ferramenta personalizada. | Sim | |
| Id | cadeia | A ID exclusiva da saída de chamada de ferramenta personalizada na plataforma OpenAI. | Não | |
| saída | cadeia de caracteres ou matriz de OpenAI.FunctionAndCustomToolCallOutput | A saída da chamada de ferramenta personalizada gerada pelo seu código. Pode ser uma cadeia de caracteres ou uma lista de conteúdo de saída. |
Sim | |
| tipo | enumeração | O tipo da saída da chamada de ferramenta personalizada. Sempre custom_tool_call_output.Valores possíveis: custom_tool_call_output |
Sim |
OpenAI.ConversationItemFileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivo. Consulte o guia de pesquisa de arquivos para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa de arquivos. | Sim | |
| Consultas | matriz de cadeia de caracteres | As consultas usadas para pesquisar arquivos. | Sim | |
| Resultados | matriz de OpenAI.FileSearchToolCallResults ou null | Não | ||
| status | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress,searching, incomplete ou failed,Valores possíveis: in_progress, , searching, completed, incomplete, failed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.Valores possíveis: file_search_call |
Sim |
OpenAI.ConversationItemFunctionShellCall
Uma chamada de ferramenta que executa um ou mais comandos de shell em um ambiente gerenciado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.FunctionShellAction | Execute um comando de shell. | Sim | |
| Comandos └─ | matriz de cadeia de caracteres | Sim | ||
| └─ max_output_length | inteiro ou nulo | Sim | ||
| └─ timeout_ms | inteiro ou nulo | Sim | ||
| call_id | cadeia | A ID exclusiva da chamada de ferramenta de shell gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta shell. Populado quando esse item é retornado por meio da API. | Sim | |
| status | OpenAI.LocalShellCallStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre shell_call.Valores possíveis: shell_call |
Sim |
OpenAI.ConversationItemFunctionShellCallOutput
A saída de uma chamada de ferramenta de shell que foi emitida.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada de ferramenta de shell gerada pelo modelo. | Sim | |
| created_by | cadeia | O identificador do ator que criou o item. | Não | |
| Id | cadeia | A ID exclusiva da saída de chamada do shell. Populado quando esse item é retornado por meio da API. | Sim | |
| max_output_length | inteiro ou nulo | Sim | ||
| saída | matriz de OpenAI.FunctionShellCallOutputContent | Uma matriz de conteúdo de saída de chamada de shell | Sim | |
| tipo | enumeração | O tipo da saída da chamada de shell. Sempre shell_call_output.Valores possíveis: shell_call_output |
Sim |
OpenAI.ConversationItemFunctionToolCallOutputResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da saída da chamada da ferramenta de função. Populado quando este item é retornado por meio da API. |
Não | |
| saída | cadeia de caracteres ou matriz de OpenAI.FunctionAndCustomToolCallOutput | A saída da chamada de função gerada pelo código. Pode ser uma cadeia de caracteres ou uma lista de conteúdo de saída. |
Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Sim |
OpenAI.ConversationItemFunctionToolCallResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. | Sim | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta de função. | Não | |
| Nome | cadeia | O nome da função a ser executada. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da chamada da ferramenta de função. Sempre function_call.Valores possíveis: function_call |
Sim |
OpenAI.ConversationItemImageGenToolCall
Uma solicitação de geração de imagem feita pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada de geração de imagem. | Sim | |
| Resultado | cadeia de caracteres ou nulo | Sim | ||
| status | enumeração | O status da chamada de geração de imagem. Valores possíveis: in_progress, , completed, generatingfailed |
Sim | |
| tipo | enumeração | O tipo da chamada de geração de imagem. Sempre image_generation_call.Valores possíveis: image_generation_call |
Sim |
OpenAI.ConversationItemList
Uma lista de itens de conversa.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.ConversationItem | Uma lista de itens de conversa. | Sim | |
| first_id | cadeia | A ID do primeiro item da lista. | Sim | |
| has_more | Boolean | Se há mais itens disponíveis. | Sim | |
| last_id | cadeia | A ID do último item da lista. | Sim | |
| objeto | enumeração | O tipo de objeto retornado deve ser list.Valores possíveis: list |
Sim |
OpenAI.ConversationItemLocalShellToolCall
Uma chamada de ferramenta para executar um comando no shell local.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.LocalShellExecAction | Execute um comando shell no servidor. | Sim | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da chamada de shell local. | Sim | |
| status | enumeração | O status da chamada de shell local. Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da chamada de shell local. Sempre local_shell_call.Valores possíveis: local_shell_call |
Sim |
OpenAI.ConversationItemLocalShellToolCallOutput
A saída de uma chamada de ferramenta de shell local.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Sim | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de shell local. | Sim | |
| status | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo da saída da chamada da ferramenta de shell local. Sempre local_shell_call_output.Valores possíveis: local_shell_call_output |
Sim |
OpenAI.ConversationItemMcpApprovalRequest
Um pedido de aprovação humana de uma invocação de ferramenta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Uma cadeia de caracteres JSON de argumentos para a ferramenta. | Sim | |
| Id | cadeia | A ID exclusiva da solicitação de aprovação. | Sim | |
| Nome | cadeia | O nome da ferramenta a ser executada. | Sim | |
| server_label | cadeia | O rótulo do servidor MCP que está fazendo a solicitação. | Sim | |
| tipo | enumeração | O tipo do item. Sempre mcp_approval_request.Valores possíveis: mcp_approval_request |
Sim |
OpenAI.ConversationItemMcpApprovalResponseResource
Uma resposta a uma solicitação de aprovação do MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| approval_request_id | cadeia | A ID da solicitação de aprovação que está sendo respondida. | Sim | |
| Aprovar | Boolean | Se a solicitação foi aprovada. | Sim | |
| Id | cadeia | A ID exclusiva da resposta de aprovação | Sim | |
| Razão | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo do item. Sempre mcp_approval_response.Valores possíveis: mcp_approval_response |
Sim |
OpenAI.ConversationItemMcpListTools
Uma lista de ferramentas disponíveis em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| erro | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID exclusiva da lista. | Sim | |
| server_label | cadeia | O rótulo do servidor MCP. | Sim | |
| Ferramentas | matriz de OpenAI.MCPListToolsTool | As ferramentas disponíveis no servidor. | Sim | |
| tipo | enumeração | O tipo do item. Sempre mcp_list_tools.Valores possíveis: mcp_list_tools |
Sim |
OpenAI.ConversationItemMcpToolCall
Uma invocação de uma ferramenta em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| approval_request_id | cadeia de caracteres ou nulo | Não | ||
| Argumentos | cadeia | Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. | Sim | |
| erro | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID exclusiva da chamada de ferramenta. | Sim | |
| Nome | cadeia | O nome da ferramenta que foi executada. | Sim | |
| saída | cadeia de caracteres ou nulo | Não | ||
| server_label | cadeia | O rótulo do servidor MCP que executa a ferramenta. | Sim | |
| status | OpenAI.MCPToolCallStatus | Não | ||
| tipo | enumeração | O tipo do item. Sempre mcp_call.Valores possíveis: mcp_call |
Sim |
OpenAI.ConversationItemMessage
Uma mensagem de ou para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.InputTextContent ou OpenAI.OutputTextContent ou OpenAI.TextContent ou OpenAI.SummaryTextContent ou OpenAI.ReasoningTextContent ou OpenAI.RefusalContent ou OpenAI.InputImageContent ou OpenAI.ComputerScreenshotContent ou OpenAI.InputFileContent | O conteúdo da mensagem | Sim | |
| Id | cadeia | A ID exclusiva da mensagem. | Sim | |
| função | OpenAI.MessageRole | Sim | ||
| status | OpenAI.MessageStatus | Sim | ||
| tipo | enumeração | O tipo da mensagem. Sempre definido como message.Valores possíveis: message |
Sim |
OpenAI.ConversationItemReasoningItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta. Certifique-se de incluir esses itens na input API de Respostas para as próximas rodadas de uma conversa se você estiver gerenciando manualmente o contexto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.ReasoningTextContent | Conteúdo de texto de raciocínio. | Não | |
| encrypted_content | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | O identificador exclusivo do conteúdo de raciocínio. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| resumo | matriz de OpenAI.Summary | Conteúdo de resumo de raciocínio. | Sim | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Sim |
OpenAI.ConversationItemType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | messagefunction_callfunction_call_outputfile_search_callweb_search_callimage_generation_callcomputer_callcomputer_call_outputreasoningcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_callcustom_tool_callcustom_tool_call_output |
OpenAI.ConversationItemWebSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa na Web. Consulte o guia de pesquisa na Web para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.WebSearchActionSearch ou OpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind | Um objeto que descreve a ação específica executada nesta chamada de pesquisa na Web. Inclui detalhes sobre como o modelo usou a Web (pesquisa, open_page, localizar). |
Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa na Web. | Sim | |
| status | enumeração | O status da chamada da ferramenta de pesquisa na Web. Valores possíveis: in_progress, , searching, completedfailed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa na Web. Sempre web_search_call.Valores possíveis: web_search_call |
Sim |
OpenAI.ConversationParam
A conversa à qual essa resposta pertence. Os itens dessa conversa são anexados a input_items essa solicitação de resposta.
Itens de entrada e itens de saída dessa resposta são adicionados automaticamente a essa conversa após a conclusão dessa resposta.
Tipo: cadeia de caracteres ou OpenAI.ConversationParam-2
A conversa à qual essa resposta pertence. Os itens dessa conversa são anexados a input_items essa solicitação de resposta.
Itens de entrada e itens de saída dessa resposta são adicionados automaticamente a essa conversa após a conclusão dessa resposta.
OpenAI.ConversationParam-2
A conversa à qual essa resposta pertence.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da conversa. | Sim |
OpenAI.ConversationReference
A conversa à qual essa resposta pertencia. Itens de entrada e itens de saída dessa resposta foram adicionados automaticamente a essa conversa.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da conversa à qual essa resposta foi associada. | Sim |
OpenAI.ConversationResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | A hora em que a conversa foi criada, medida em segundos desde a época do Unix. | Sim | |
| Id | cadeia | A ID exclusiva da conversa. | Sim | |
| metadados | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Sim | ||
| objeto | enumeração | O tipo de objeto, que é sempre conversation.Valores possíveis: conversation |
Sim |
OpenAI.CreateChatCompletionRequestAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | enumeração | Valores possíveis: wav, , aac, mp3, flac, , opuspcm16 |
Sim | |
| Voz | OpenAI.VoiceIdsShared | Sim |
OpenAI.CreateChatCompletionRequestResponseFormat
Um objeto que especifica o formato que o modelo deve gerar.
Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no guia Saídas Estruturadas.
A configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
Discriminador para OpenAI.CreateChatCompletionRequestResponseFormat
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
json_schema |
OpenAI.ResponseFormatJsonSchema |
text |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText |
json_object |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.CreateChatCompletionRequestResponseFormatType | Sim |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatJsonObject
Formato de resposta de objeto JSON. Um método mais antigo de geração de respostas JSON.
O uso json_schema é recomendado para modelos que dão suporte a ele. Observe que o modelo não gerará JSON sem um sistema ou mensagem de usuário instruindo-o a fazê-lo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_object.Valores possíveis: json_object |
Sim |
OpenAI.CreateChatCompletionRequestResponseFormatResponseFormatText
Formato de resposta padrão. Usado para gerar respostas de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre text.Valores possíveis: text |
Sim |
OpenAI.CreateChatCompletionRequestResponseFormatType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | textjson_schemajson_object |
OpenAI.CreateChatCompletionResponseChoices
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_filter_results | AzureContentFilterResultForChoice | Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo. | Não | |
| finish_reason | enumeração | Valores possíveis: stop, , length, tool_calls, content_filter, function_call |
Sim | |
| indexar | inteiro | Sim | ||
| logprobs | OpenAI.CreateChatCompletionResponseChoicesLogprobs ou null | Sim | ||
| mensagem | OpenAI.ChatCompletionResponseMessage | Se a modalidade de saída de áudio for solicitada, esse objeto conterá dados sobre a resposta de áudio do modelo. |
Sim |
OpenAI.CreateChatCompletionResponseChoicesLogprobs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.ChatCompletionTokenLogprob ou null | Sim | ||
| Recusa | matriz de OpenAI.ChatCompletionTokenLogprob ou null | Sim |
OpenAI.CreateChatCompletionStreamResponseChoices
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | OpenAI.ChatCompletionStreamResponseDelta | Um delta de conclusão de chat gerado por respostas de modelo transmitidas. | Sim | |
| finish_reason | cadeia de caracteres ou nulo | Sim | ||
| indexar | inteiro | Sim | ||
| logprobs | OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs ou null | Não |
OpenAI.CreateChatCompletionStreamResponseChoicesLogprobs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.ChatCompletionTokenLogprob ou null | Sim | ||
| Recusa | matriz de OpenAI.ChatCompletionTokenLogprob ou null | Sim |
OpenAI.CreateCompletionResponseChoices
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_filter_results | AzureContentFilterResultForChoice | Um resultado de filtro de conteúdo para um único item de resposta produzido por um sistema de IA generativo. | Não | |
| finish_reason | enumeração | Valores possíveis: stop, , lengthcontent_filter |
Sim | |
| indexar | inteiro | Sim | ||
| logprobs | OpenAI.CreateCompletionResponseChoicesLogprobs ou null | Sim | ||
| enviar SMS | cadeia | Sim |
OpenAI.CreateCompletionResponseChoicesLogprobs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| text_offset | matriz de inteiro | Não | ||
| token_logprobs | matriz de número | Não | ||
| Tokens | matriz de cadeia de caracteres | Não | ||
| top_logprobs | matriz de objeto | Não |
OpenAI.CreateContainerBody
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | OpenAI.CreateContainerBodyExpiresAfter | Não | ||
| └─ âncora | enumeração | Valores possíveis: last_active_at |
Sim | |
| └─ minutos | inteiro | Sim | ||
| file_ids | matriz de cadeia de caracteres | IDs de arquivos a serem copiados para o contêiner. | Não | |
| memory_limit | enumeração | Limite de memória opcional para o contêiner. O padrão é "1g". Valores possíveis: 1g, , 4g, 16g64g |
Não | |
| Nome | cadeia | Nome do contêiner a ser criado. | Sim |
OpenAI.CreateContainerBodyExpiresAfter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| âncora | enumeração | Valores possíveis: last_active_at |
Sim | |
| Minutos | inteiro | Sim |
OpenAI.CreateContainerFileBody
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| arquivo | O objeto File (não o nome do arquivo) a ser carregado. | Não | ||
| File_id | cadeia | Nome do arquivo a ser criado. | Não |
OpenAI.CreateConversationBody
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Itens | matriz de OpenAI.InputItem ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não |
OpenAI.CreateConversationItemsParametersBody
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Itens | matriz de OpenAI.InputItem | Sim |
OpenAI.CreateEmbeddingRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Dimensões | inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Somente modelos compatíveis com text-embedding-3 modelos posteriores.Restrições: min: 1 |
Não | |
| encoding_format | enumeração | O formato no qual as inserções devem ser retornadas. Pode ser um float ou base64.Valores possíveis: float, base64 |
Não | |
| entrada | cadeia de caracteres ou matriz de cadeia de caracteres ou matriz de inteiros ou matriz de matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para todos os modelos de inserção), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. Exemplo de código Python para contagem de tokens. Além do limite de token por entrada, todos os modelos de inserção impõem um máximo de 300.000 tokens somados em todas as entradas em uma única solicitação. | Sim | |
| modelo | cadeia | ID do modelo a ser usado. Você pode usar a API de modelos de lista para ver todos os seus modelos disponíveis ou ver nossa visão geral do modelo para obter descrições deles. | Sim | |
| usuário | cadeia | Saiba mais. | Não |
OpenAI.CreateEmbeddingResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.Embedding | A lista de inserções geradas pelo modelo. | Sim | |
| modelo | cadeia | O nome do modelo usado para gerar a inserção. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "list". Valores possíveis: list |
Sim | |
| uso | OpenAI.CreateEmbeddingResponseUsage | Sim | ||
| └─ prompt_tokens | inteiro | Sim | ||
| └─ tokens_totais | inteiro | Sim |
OpenAI.CreateEmbeddingResponseUsage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| prompt_tokens | inteiro | Sim | ||
| total_tokens | inteiro | Sim |
OpenAI.CreateEvalCompletionsRunDataSource
Um objeto CompletionsRunDataSource que descreve uma configuração de amostragem de modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_messages | OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate ou OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference | Usado durante a amostragem de um modelo. Determina a estrutura das mensagens passadas para o modelo. Pode ser uma referência a uma trajetória predefinida (ou seja, item.input_trajectory) ou a um modelo com referências variáveis ao item namespace. |
Não | |
| modelo | cadeia | O nome do modelo a ser usado para gerar conclusões (por exemplo, "o3-mini"). | Não | |
| sampling_params | AzureCompletionsSamplingParams | Parâmetros de amostragem para controlar o comportamento das conclusões. | Não | |
| fonte | OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource ou OpenAI.EvalStoredCompletionsSource | Determina o que preenche o item namespace na fonte de dados dessa execução. |
Sim | |
| tipo | enumeração | O tipo de fonte de dados de execução. Sempre completions.Valores possíveis: completions |
Sim |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesItemReference
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_reference | cadeia | Sim | ||
| tipo | enumeração | Valores possíveis: item_reference |
Sim |
OpenAI.CreateEvalCompletionsRunDataSourceInputMessagesTemplate
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| modelo | matriz de OpenAI.EasyInputMessage ou OpenAI.EvalItem | Sim | ||
| tipo | enumeração | Valores possíveis: template |
Sim |
OpenAI.CreateEvalCompletionsRunDataSourceSamplingParams
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| max_completion_tokens | inteiro | Não | ||
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| response_format | OpenAI.ResponseFormatText ou OpenAI.ResponseFormatJsonSchema ou OpenAI.ResponseFormatJsonObject | Não | ||
| Semente | inteiro | Um valor de semente inicializa a aleatoriedade durante a amostragem. | Não | 42 |
| Temperatura | Número | Uma temperatura mais alta aumenta a aleatoriedade nas saídas. | Não | 1 |
| Ferramentas | matriz de OpenAI.ChatCompletionTool | Não | ||
| top_p | Número | Uma alternativa à temperatura para amostragem de núcleo; 1.0 inclui todos os tokens. | Não | 1 |
OpenAI.CreateEvalCustomDataSourceConfig
Um objeto CustomDataSourceConfig que define o esquema da fonte de dados usada para as execuções de avaliação. Esse esquema é usado para definir a forma dos dados que serão:
- Usado para definir seus critérios de teste e
- Quais dados são necessários ao criar uma execução
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| include_sample_schema | Boolean | Se a avaliação deve esperar que você preencha o namespace de exemplo (ou seja, gerando respostas fora da fonte de dados) | Não | |
| item_schema | objeto | O esquema json para cada linha na fonte de dados. | Sim | |
| tipo | enumeração | O tipo de fonte de dados. Sempre custom.Valores possíveis: custom |
Sim |
OpenAI.CreateEvalItem
Uma mensagem de chat que compõe o prompt ou contexto. Pode incluir referências variáveis ao item namespace, ou seja, {{item.name}}.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia | O conteúdo da mensagem. | Sim | |
| função | cadeia | A função da mensagem (por exemplo, "sistema", "assistente", "usuário"). | Sim |
OpenAI.CreateEvalJsonlRunDataSource
Um objeto JsonlRunDataSource com o qual especifica um arquivo JSONL que corresponde à avaliação
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| fonte | OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource | Determina o que preenche o item namespace na fonte de dados. |
Sim | |
| tipo | enumeração | O tipo de fonte de dados. Sempre jsonl.Valores possíveis: jsonl |
Sim |
OpenAI.CreateEvalLabelModelGrader
Um objeto LabelModelGrader que usa um modelo para atribuir rótulos a cada item na avaliação.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | matriz de OpenAI.CreateEvalItem | Uma lista de mensagens de chat que formam o prompt ou o contexto. Pode incluir referências variáveis ao item namespace, ou seja, {{item.name}}. |
Sim | |
| Rótulos | matriz de cadeia de caracteres | Os rótulos a serem classificados para cada item na avaliação. | Sim | |
| modelo | cadeia | O modelo a ser usado para a avaliação. Deve dar suporte a saídas estruturadas. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| passing_labels | matriz de cadeia de caracteres | Os rótulos que indicam um resultado de passagem. Deve ser um subconjunto de rótulos. | Sim | |
| tipo | enumeração | O tipo de objeto, que é sempre label_model.Valores possíveis: label_model |
Sim |
OpenAI.CreateEvalLogsDataSourceConfig
Uma configuração de fonte de dados que especifica a propriedade de metadados da consulta de logs.
Geralmente, são metadados como usecase=chatbot ou prompt-version=v2etc.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | objeto | Filtros de metadados para a fonte de dados de logs. | Não | |
| tipo | enumeração | O tipo de fonte de dados. Sempre logs.Valores possíveis: logs |
Sim |
OpenAI.CreateEvalResponsesRunDataSource
Um objeto ResponsesRunDataSource que descreve uma configuração de amostragem de modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_messages | OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate ou OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference | Usado durante a amostragem de um modelo. Determina a estrutura das mensagens passadas para o modelo. Pode ser uma referência a uma trajetória predefinida (ou seja, item.input_trajectory) ou a um modelo com referências variáveis ao item namespace. |
Não | |
| modelo | cadeia | O nome do modelo a ser usado para gerar conclusões (por exemplo, "o3-mini"). | Não | |
| sampling_params | AzureResponsesSamplingParams | Parâmetros de amostragem para controlar o comportamento das respostas. | Não | |
| fonte | OpenAI.EvalJsonlFileContentSource ou OpenAI.EvalJsonlFileIdSource ou OpenAI.EvalResponsesSource | Determina o que preenche o item namespace na fonte de dados dessa execução. |
Sim | |
| tipo | enumeração | O tipo de fonte de dados de execução. Sempre responses.Valores possíveis: responses |
Sim |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesItemReference
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_reference | cadeia | Sim | ||
| tipo | enumeração | Valores possíveis: item_reference |
Sim |
OpenAI.CreateEvalResponsesRunDataSourceInputMessagesTemplate
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| modelo | matriz de objeto ou OpenAI.EvalItem | Sim | ||
| tipo | enumeração | Valores possíveis: template |
Sim |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParams
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| Semente | inteiro | Um valor de semente inicializa a aleatoriedade durante a amostragem. | Não | 42 |
| Temperatura | Número | Uma temperatura mais alta aumenta a aleatoriedade nas saídas. | Não | 1 |
| enviar SMS | OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText | Não | ||
| Ferramentas | matriz de OpenAI.Tool | Não | ||
| top_p | Número | Uma alternativa à temperatura para amostragem de núcleo; 1.0 inclui todos os tokens. | Não | 1 |
OpenAI.CreateEvalResponsesRunDataSourceSamplingParamsText
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | OpenAI.TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar.{ "type": "json_schema" } Configurar habilita saídas estruturadas,que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no O formato padrão não tem { "type": "text" } opções adicionais.*Não recomendado para modelos gpt-4o e mais recentes:** Configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, quegarante que a mensagem gerada pelo modelo seja JSON válida. Usando json_schemaé preferencial para modelos que dão suporte a ele. |
Não |
OpenAI.CreateEvalRunRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Data_source | OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource | Detalhes sobre a fonte de dados da execução. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia | O nome da execução. | Não |
OpenAI.CreateEvalStoredCompletionsDataSourceConfig
Preterido em favor de LogsDataSourceConfig.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | objeto | Filtros de metadados para a fonte de dados de conclusões armazenadas. | Não | |
| tipo | enumeração | O tipo de fonte de dados. Sempre stored_completions.Valores possíveis: stored_completions |
Sim |
OpenAI.CreateFileRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | objeto | Sim | ||
| └─ âncora | AzureFileExpiryAnchor | Sim | ||
| └─ segundos | inteiro | Sim | ||
| arquivo | O objeto File (não o nome do arquivo) a ser carregado. | Sim | ||
| Propósito | enumeração | A finalidade pretendida do arquivo carregado. Um de: - assistants: Usado na API de Assistentes - batch: Usado na API do Lote - fine-tune: Usado para ajuste fino - evals: Usado para conjuntos de dados de avaliaçãoValores possíveis: assistants, , batch, fine-tuneevals |
Sim |
OpenAI.CreateFineTuningCheckpointPermissionRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| project_ids | matriz de cadeia de caracteres | Os identificadores de projeto aos quais conceder acesso. | Sim |
OpenAI.CreateFineTuningJobRequest
Modelos válidos:
babbage-002
davinci-002
gpt-3.5-turbo
gpt-4o-mini
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| hiperparâmetros | OpenAI.CreateFineTuningJobRequestHyperparameters | Não | ||
| └─ tamanho_do_lote (batch_size) | cadeia de caracteres ou inteiro | Não | Automático | |
| └─ multiplicador_da_taxa_de_aprendizagem | cadeia de caracteres ou número | Não | ||
| └─ n_epochs | cadeia de caracteres ou inteiro | Não | Automático | |
| Integrações | matriz de OpenAI.CreateFineTuningJobRequestIntegrations ou null | Uma lista de integrações para habilitar seu trabalho de ajuste fino. | Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| método | OpenAI.FineTuneMethod | O método usado para ajuste fino. | Não | |
| modelo | cadeia de caracteres (veja os modelos válidos abaixo) | O nome do modelo a ser afinado. Você pode selecionar um dos modelos compatíveis. |
Sim | |
| Semente | inteiro ou nulo | A semente controla a reprodutibilidade do trabalho. Passar os mesmos parâmetros de semente e trabalho deve produzir os mesmos resultados, mas pode ser diferente em casos raros. Se uma semente não for especificada, uma será gerada para você. |
Não | |
| Sufixo | cadeia de caracteres ou nulo | Uma cadeia de caracteres de até 64 caracteres que será adicionada ao seu nome de modelo ajustado. Por exemplo, um suffix "custom-model-name" produziria um nome de modelo como ft:gpt-4o-mini:openai:custom-model-name:7p4lURel. |
Não | |
| training_file | cadeia | A ID de um arquivo carregado que contém dados de treinamento. Consulte o arquivo de upload para saber como carregar um arquivo. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Além disso, você deve carregar seu arquivo com a finalidade fine-tune.O conteúdo do arquivo deve ser diferente dependendo se o modelo usar o chat, o formato de conclusão ou se o método de ajuste fino usar o formato de preferência . Consulte o guia de ajuste fino para obter mais detalhes. |
Sim | |
| validation_file | cadeia de caracteres ou nulo | A ID de um arquivo carregado que contém dados de validação. Se você fornecer esse arquivo, os dados serão usados para gerar validação métricas periodicamente durante o ajuste fino. Essas métricas podem ser exibidas em o arquivo de resultados de ajuste fino. Os mesmos dados não devem estar presentes nos arquivos de treinamento e validação. Seu conjunto de dados deve ser formatado como um arquivo JSONL. Você deve carregar seu arquivo com a finalidade fine-tune.Consulte o guia de ajuste fino para obter mais detalhes. |
Não |
OpenAI.CreateFineTuningJobRequestHyperparameters
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| batch_size | cadeia de caracteres ou inteiro | Não | ||
| learning_rate_multiplier | cadeia de caracteres ou número | Não | ||
| n_epochs | cadeia de caracteres ou inteiro | Não |
OpenAI.CreateFineTuningJobRequestIntegrations
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: wandb |
Sim | |
| wandb | OpenAI.CreateFineTuningJobRequestIntegrationsWandb | Sim |
OpenAI.CreateFineTuningJobRequestIntegrationsWandb
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entidade | cadeia de caracteres ou nulo | Não | ||
| Nome | cadeia de caracteres ou nulo | Não | ||
| projeto | cadeia | Sim | ||
| Tags | matriz de cadeia de caracteres | Não |
OpenAI.CreateMessageRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anexos | matriz de OpenAI.CreateMessageRequestAttachments ou null | Não | ||
| conteúdo | cadeia de caracteres ou matriz de OpenAI.MessageContentImageFileObject ou OpenAI.MessageContentImageUrlObject ou OpenAI.MessageRequestContentTextObject | Sim | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| função | enumeração | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user: indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant: indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.Valores possíveis: user, assistant |
Sim |
OpenAI.CreateMessageRequestAttachments
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | Não | ||
| Ferramentas | matriz de OpenAI.AssistantToolsCode ou OpenAI.AssistantToolsFileSearchTypeOnly | Não |
OpenAI.CreateResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| em segundo plano | booliano ou nulo | Não | ||
| conversa | OpenAI.ConversationParam ou nulo | Não | ||
| Incluem | matriz de OpenAI.IncludeEnum ou null | Não | ||
| entrada | OpenAI.InputParam | Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. Saiba Mais: - Entradas e saídas de texto - Entradas de imagem - Entradas de arquivo - Estado da conversa - Chamada de função |
Não | |
| Instruções | cadeia de caracteres ou nulo | Não | ||
| max_output_tokens | inteiro ou nulo | Não | ||
| max_tool_calls | inteiro ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| parallel_tool_calls | booliano ou nulo | Não | ||
| previous_response_id | cadeia de caracteres ou nulo | Não | ||
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| Raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| armazenar | booliano ou nulo | Não | ||
| fluxo | booliano ou nulo | Não | ||
| stream_options | OpenAI.ResponseStreamOptions ou nulo | Não | ||
| Temperatura | número ou nulo | Não | ||
| enviar SMS | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| tool_choice | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| Ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| top_logprobs | inteiro ou nulo | Não | ||
| top_p | número ou nulo | Não | ||
| Truncamento | cadeia de caracteres ou nulo | Não | ||
| usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não |
OpenAI.CreateRunRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| additional_instructions | cadeia de caracteres ou nulo | Acrescenta instruções adicionais ao final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
| additional_messages | matriz de OpenAI.CreateMessageRequest ou null | Adiciona mensagens adicionais ao thread antes de criar a execução. | Não | |
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Sim | |
| Instruções | cadeia de caracteres ou nulo | Substitui as instruções do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
| max_completion_tokens | inteiro ou nulo | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias curvas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| max_prompt_tokens | inteiro ou nulo | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | |
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | booliano ou nulo | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
| Temperatura | número ou nulo | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. | Não | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
| Ferramentas | matriz de OpenAI.AssistantTool | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
| top_p | número ou nulo | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
Não | |
| truncation_strategy | OpenAI.TruncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
OpenAI.CreateThreadAndRunRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente a ser usada para executar essa execução. | Sim | |
| Instruções | cadeia de caracteres ou nulo | Substitua a mensagem do sistema padrão do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
| max_completion_tokens | inteiro ou nulo | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias curvas da execução. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| max_prompt_tokens | inteiro ou nulo | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Confira incomplete_details mais informações. |
Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
| fluxo | booliano ou nulo | Se true, retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
| Temperatura | número ou nulo | Que temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 o tornarão mais focado e determinístico. | Não | |
| conversa | OpenAI.CreateThreadRequest | Opções para criar um novo thread. Se nenhum thread for fornecido ao executar um uma solicitação, um thread vazio será criado. |
Não | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
| tool_resources | OpenAI.CreateThreadAndRunRequestToolResources ou null | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs do repositório de vetores. |
Não | |
| Ferramentas | matriz de OpenAI.AssistantTool | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
| top_p | número ou nulo | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, em que o modelo considera os resultados dos tokens com top_p massa de probabilidade. Portanto, 0.1 significa que somente os tokens que compõem a massa de probabilidade de 10% principais são considerados. Geralmente, recomendamos alterar isso ou temperatura, mas não ambos. |
Não | |
| truncation_strategy | OpenAI.TruncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não |
OpenAI.CreateThreadAndRunRequestToolResources
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter | Não | ||
| File_search | OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch | Não |
OpenAI.CreateThreadAndRunRequestToolResourcesCodeInterpreter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_ids | matriz de cadeia de caracteres | Não | [] |
OpenAI.CreateThreadAndRunRequestToolResourcesFileSearch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| vector_store_ids | matriz de cadeia de caracteres | Não |
OpenAI.CreateThreadRequest
Opções para criar um novo thread. Se nenhum thread for fornecido ao executar uma solicitação, um thread vazio será criado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Mensagens | matriz de OpenAI.CreateMessageRequest | Uma lista de mensagens para iniciar o thread. | Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| tool_resources | OpenAI.CreateThreadRequestToolResources ou null | Não |
OpenAI.CreateThreadRequestToolResources
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| code_interpreter | OpenAI.CreateThreadRequestToolResourcesCodeInterpreter | Não | ||
| File_search | objeto ou objeto | Não |
OpenAI.CreateThreadRequestToolResourcesCodeInterpreter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_ids | matriz de cadeia de caracteres | Não |
OpenAI.CreateVectorStoreFileBatchRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Não | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
Não | |
| file_ids | matriz de cadeia de caracteres | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. Se attributes forem fornecidos ou chunking_strategy fornecidos, eles serão aplicados a todos os arquivos no lote. Mutuamente exclusivo com files. |
Não | |
| Arquivos | matriz de OpenAI.CreateVectorStoreFileRequest | Uma lista de objetos que incluem uma file_id adição opcional attributes ou chunking_strategy. Use isso quando precisar substituir metadados para arquivos específicos. O global attributes ou chunking_strategy será ignorado e deve ser especificado para cada arquivo. Mutuamente exclusivo com file_ids. |
Não |
OpenAI.CreateVectorStoreFileRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Não | ||
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
Não | |
| File_id | cadeia | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Sim |
OpenAI.CreateVectorStoreRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| chunking_strategy | OpenAI.ChunkingStrategyRequestParam | A estratégia de agrupamento usada para agrupar os arquivos. Se não estiver definido, usará a auto estratégia. Aplicável somente se file_ids não estiver vazio. |
Não | |
| Descrição | cadeia | Uma descrição para o repositório de vetores. Pode ser usado para descrever a finalidade do repositório de vetores. | Não | |
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
| file_ids | matriz de cadeia de caracteres | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search essa que podem acessar arquivos. |
Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia | O nome do repositório de vetores. | Não |
OpenAI.CustomGrammarFormatParam
Uma gramática definida pelo usuário.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Definição | cadeia | A definição de gramática. | Sim | |
| Sintaxe | OpenAI.GrammarSyntax1 | Sim | ||
| tipo | enumeração | Formato de gramática. Sempre grammar.Valores possíveis: grammar |
Sim |
OpenAI.CustomTextFormatParam
Texto sem restrições de forma livre.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Formato de texto não treinado. Sempre text.Valores possíveis: text |
Sim |
OpenAI.CustomToolChatCompletions
Uma ferramenta personalizada que processa a entrada usando um formato especificado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Personalizado | OpenAI.CustomToolChatCompletionsCustom | Sim | ||
| └─ descrição | cadeia | Não | ||
| Formato └─ | OpenAI.CustomToolChatCompletionsCustomFormatText ou OpenAI.CustomToolChatCompletionsCustomFormatGrammar | Não | ||
| └─ nome | cadeia | Sim | ||
| tipo | enumeração | O tipo da ferramenta personalizada. Sempre custom.Valores possíveis: custom |
Sim |
OpenAI.CustomToolChatCompletionsCustom
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Não | ||
| Formato | OpenAI.CustomToolChatCompletionsCustomFormatText ou OpenAI.CustomToolChatCompletionsCustomFormatGrammar | Não | ||
| Nome | cadeia | Sim |
OpenAI.CustomToolChatCompletionsCustomFormatGrammar
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Gramática | OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammarmar | Sim | ||
| └─ definição | cadeia | Sim | ||
| └─ sintaxe | enumeração | Valores possíveis: lark, regex |
Sim | |
| tipo | enumeração | Valores possíveis: grammar |
Sim |
OpenAI.CustomToolChatCompletionsCustomFormatGrammarGrammarmar
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Definição | cadeia | Sim | ||
| Sintaxe | enumeração | Valores possíveis: lark, regex |
Sim |
OpenAI.CustomToolChatCompletionsCustomFormatText
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: text |
Sim |
OpenAI.CustomToolParam
Uma ferramenta personalizada que processa a entrada usando um formato especificado. Saiba mais sobre ferramentas personalizadas
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Descrição opcional da ferramenta personalizada, usada para fornecer mais contexto. | Não | |
| Formato | OpenAI.CustomToolParamFormat | O formato de entrada para a ferramenta personalizada. O padrão é texto sem restrições. | Não | |
| └─ tipo | OpenAI.CustomToolParamFormatType | Sim | ||
| Nome | cadeia | O nome da ferramenta personalizada, usada para identificá-la em chamadas de ferramenta. | Sim | |
| tipo | enumeração | O tipo da ferramenta personalizada. Sempre custom.Valores possíveis: custom |
Sim |
OpenAI.CustomToolParamFormat
O formato de entrada para a ferramenta personalizada. O padrão é texto sem restrições.
Discriminador para OpenAI.CustomToolParamFormat
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
text |
OpenAI.CustomTextFormatParam |
grammar |
OpenAI.CustomGrammarFormatParam |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.CustomToolParamFormatType | Sim |
OpenAI.CustomToolParamFormatType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | textgrammar |
OpenAI.DeleteFileResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | enumeração | Valores possíveis: file |
Sim |
OpenAI.DeleteFineTuningCheckpointPermissionResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Se a permissão de ponto de verificação do modelo ajustado foi excluída com êxito. | Sim | |
| Id | cadeia | A ID da permissão de ponto de verificação do modelo ajustado que foi excluída. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "checkpoint.permission". Valores possíveis: checkpoint.permission |
Sim |
OpenAI.DeleteMessageResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | enumeração | Valores possíveis: thread.message.deleted |
Sim |
OpenAI.DeleteModelResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.DeleteThreadResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | enumeração | Valores possíveis: thread.deleted |
Sim |
OpenAI.DeleteVectorStoreFileResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | enumeração | Valores possíveis: vector_store.file.deleted |
Sim |
OpenAI.DeleteVectorStoreResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | enumeração | Valores possíveis: vector_store.deleted |
Sim |
OpenAI.DeletedConversationResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Excluído | Boolean | Sim | ||
| Id | cadeia | Sim | ||
| objeto | enumeração | Valores possíveis: conversation.deleted |
Sim |
OpenAI.DoubleClickAction
Uma ação de clique duplo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de clique duplo, essa propriedade é sempre definida como double_click.Valores possíveis: double_click |
Sim | |
| X | inteiro | A coordenada x em que o clique duplo ocorreu. | Sim | |
| Y | inteiro | A coordenada y em que o clique duplo ocorreu. | Sim |
OpenAI.Drag
Uma ação de arrastar.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| caminho | matriz de OpenAI.DragPoint | Uma matriz de coordenadas que representa o caminho da ação de arrastar. As coordenadas serão exibidas como uma matriz de objetos, por exemplo, <br> [<br> { x: 100, y: 200 },<br> { x: 200, y: 300 }<br> ]<br> |
Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de arrastar, essa propriedade é sempre definido como drag.Valores possíveis: drag |
Sim |
OpenAI.DragPoint
Um par de coordenadas x/y, por exemplo. { x: 100, y: 200 }.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| X | inteiro | A coordenada x. | Sim | |
| Y | inteiro | A coordenada y. | Sim |
OpenAI.EasyInputMessage
Uma entrada de mensagem para o modelo com uma função que indica a instrução seguindo a hierarquia. As instruções fornecidas com a função ou developer têm system precedência sobre as instruções fornecidas com a user função. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | string or OpenAI.InputMessageContentList | Entrada de texto, imagem ou áudio para o modelo, usada para gerar uma resposta. Também pode conter respostas anteriores do assistente. |
Sim | |
| função | enumeração | A função da entrada da mensagem. Um de user, assistant, systemoudeveloper.Valores possíveis: user, , assistant, systemdeveloper |
Sim | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
Sim |
OpenAI.Embedding
Representa um vetor de inserção retornado inserindo o ponto de extremidade.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Incorporação | matriz de número | O vetor de inserção, que é uma lista de floats. O comprimento do vetor depende do modelo conforme listado no guia de inserção. | Sim | |
| indexar | inteiro | O índice da inserção na lista de inserções. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "embedding". Valores possíveis: embedding |
Sim |
OpenAI.Eval
Um objeto Eval com critérios de teste e configuração de fonte de dados. Um Eval representa uma tarefa a ser feita para a integração do LLM. Como:
- Melhorar a qualidade do meu chatbot
- Veja como meu chatbot lida bem com o suporte ao cliente
- Verifique se o o4-mini é melhor em meu uso do que gpt-4o
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando a eval foi criada. | Sim | |
| data_source_config | OpenAI.EvalCustomDataSourceConfig ou OpenAI.EvalLogsDataSourceConfig ou OpenAI.EvalStoredCompletionsDataSourceConfig | Configuração de fontes de dados usadas em execuções da avaliação. | Sim | |
| Id | cadeia | Identificador exclusivo para a avaliação. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| Nome | cadeia | O nome da avaliação. | Sim | |
| objeto | enumeração | O tipo de objeto. Valores possíveis: eval |
Sim | |
| testing_criteria | matriz de OpenAI.CreateEvalLabelModelGrader ou OpenAI.EvalGraderStringCheck ou OpenAI.EvalGraderTextSimilarity ou OpenAI.EvalGraderPython ou OpenAI.EvalGraderScoreModel ou EvalGraderEndpoint | Uma lista de critérios de teste. | Sim |
OpenAI.EvalApiError
Um objeto que representa uma resposta de erro da API de Eval.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia | O código de erro. | Sim | |
| mensagem | cadeia | A mensagem de erro. | Sim |
OpenAI.EvalCustomDataSourceConfig
Um CustomDataSourceConfig que especifica o esquema de seus namespaces e, opcionalmenteitem, de namespacessample.
O esquema de resposta define a forma dos dados que serão:
- Usado para definir seus critérios de teste e
- Quais dados são necessários ao criar uma execução
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| esquema | objeto | O esquema json para os itens de fonte de dados de execução. Saiba como criar esquemas JSON aqui. |
Sim | |
| tipo | enumeração | O tipo de fonte de dados. Sempre custom.Valores possíveis: custom |
Sim |
OpenAI.EvalGraderPython
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| image_tag | cadeia | A marca de imagem a ser usada para o script python. | Não | |
| Nome | cadeia | O nome do classificador. | Sim | |
| pass_threshold | Número | O limite para a pontuação. | Não | |
| fonte | cadeia | O código-fonte do script python. | Sim | |
| tipo | enumeração | O tipo de objeto, que é sempre python.Valores possíveis: python |
Sim |
OpenAI.EvalGraderScoreModel
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | matriz de OpenAI.EvalItem | As mensagens de entrada avaliadas pelo classificador. Dá suporte a blocos de conteúdo de áudio de entrada, texto de saída, texto de saída e texto de entrada e pode incluir cadeias de caracteres de modelo. | Sim | |
| modelo | cadeia | O modelo a ser usado para a avaliação. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| pass_threshold | Número | O limite para a pontuação. | Não | |
| alcance | matriz de número | O intervalo da pontuação. O padrão é [0, 1]. |
Não | |
| sampling_params | OpenAI.EvalGraderScoreModelSamplingParams | Não | ||
| └─ max_completions_tokens | inteiro ou nulo | Não | ||
| └─ esforço_de_raciocínio | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| └─ semente | inteiro ou nulo | Não | ||
| └─ temperatura | número ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| tipo | enumeração | O tipo de objeto, que é sempre score_model.Valores possíveis: score_model |
Sim |
OpenAI.EvalGraderScoreModelSamplingParams
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| max_completions_tokens | inteiro ou nulo | Não | ||
| reasoning_effort | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| Semente | inteiro ou nulo | Não | ||
| Temperatura | número ou nulo | Não | ||
| top_p | número ou nulo | Não |
OpenAI.EvalGraderStringCheck
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | cadeia | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Um de eq, ne, likeou ilike.Valores possíveis: eq, , ne, likeilike |
Sim | |
| referência | cadeia | O texto de referência. Isso pode incluir cadeias de caracteres de modelo. | Sim | |
| tipo | enumeração | O tipo de objeto, que é sempre string_check.Valores possíveis: string_check |
Sim |
OpenAI.EvalGraderTextSimilarity
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| evaluation_metric | enumeração | A métrica de avaliação a ser usada. Um de cosine, fuzzy_match, , bleugleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , rouge_5ou rouge_l.Valores possíveis: cosine, , fuzzy_match, bleu, gleu, meteor, rouge_1, , rouge_2, rouge_3, , rouge_4, , rouge_5rouge_l |
Sim | |
| entrada | cadeia | O texto que está sendo classificado. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| pass_threshold | Número | O limite para a pontuação. | Sim | |
| referência | cadeia | O texto que está sendo classificado. | Sim | |
| tipo | enumeração | O tipo de classificador. Valores possíveis: text_similarity |
Sim |
OpenAI.EvalItem
Uma entrada de mensagem para o modelo com uma função que indica a instrução seguindo a hierarquia. As instruções fornecidas com a função ou developer têm system precedência sobre as instruções fornecidas com a user função. Presume-se que as mensagens com a assistant função tenham sido geradas pelo modelo em interações anteriores.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | OpenAI.EvalItemContent | Entradas para o modelo – podem conter cadeias de caracteres de modelo. Dá suporte a texto, texto de saída, imagens de entrada e áudio de entrada, seja como um único item ou uma matriz de itens. | Sim | |
| função | enumeração | A função da entrada da mensagem. Um de user, assistant, systemoudeveloper.Valores possíveis: user, , assistant, systemdeveloper |
Sim | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre message.Valores possíveis: message |
Não |
OpenAI.EvalItemContent
Entradas para o modelo – podem conter cadeias de caracteres de modelo. Dá suporte a texto, texto de saída, imagens de entrada e áudio de entrada, seja como um único item ou uma matriz de itens.
Tipo: OpenAI.EvalItemContentItem ou OpenAI.EvalItemContentArray
Entradas para o modelo – podem conter cadeias de caracteres de modelo. Dá suporte a texto, texto de saída, imagens de entrada e áudio de entrada, seja como um único item ou uma matriz de itens.
OpenAI.EvalItemContentArray
Uma lista de entradas, cada uma delas pode ser um texto de entrada, texto de saída, imagem de entrada ou objeto de áudio de entrada.
Matriz de: OpenAI.EvalItemContentItem
OpenAI.EvalItemContentItem
Um único item de conteúdo: texto de entrada, texto de saída, imagem de entrada ou áudio de entrada.
Tipo: OpenAI.EvalItemContentText ou OpenAI.EvalItemContentItemObject
Um único item de conteúdo: texto de entrada, texto de saída, imagem de entrada ou áudio de entrada.
OpenAI.EvalItemContentItemObject
Um único item de conteúdo: texto de entrada, texto de saída, imagem de entrada ou áudio de entrada.
Discriminador para OpenAI.EvalItemContentItemObject
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
output_text |
OpenAI.EvalItemContentOutputText |
input_image |
OpenAI.EvalItemInputImage |
input_audio |
OpenAI.InputAudio |
input_text |
OpenAI.EvalItemContentItemObjectInputTextContent |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.EvalItemContentItemObjectType | Sim |
OpenAI.EvalItemContentItemObjectInputTextContent
Uma entrada de texto para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. | Sim | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Sim |
OpenAI.EvalItemContentItemObjectType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | input_textoutput_textinput_imageinput_audio |
OpenAI.EvalItemContentOutputText
Uma saída de texto do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | A saída de texto do modelo. | Sim | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Sim |
OpenAI.EvalItemContentText
Uma entrada de texto para o modelo.
Tipo: cadeia de caracteres
OpenAI.EvalItemInputImage
Um bloco de entrada de imagem usado em matrizes de conteúdo EvalItem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | cadeia | O nível de detalhes da imagem a ser enviada para o modelo. Um de high, lowou auto. O padrão é auto. |
Não | |
| image_url | cadeia | A URL da entrada da imagem. | Sim | |
| tipo | enumeração | O tipo de entrada da imagem. Sempre input_image.Valores possíveis: input_image |
Sim |
OpenAI.EvalJsonlFileContentSource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.EvalJsonlFileContentSourceContent | O conteúdo do arquivo jsonl. | Sim | |
| tipo | enumeração | O tipo de origem jsonl. Sempre file_content.Valores possíveis: file_content |
Sim |
OpenAI.EvalJsonlFileContentSourceContent
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item | objeto | Sim | ||
| amostra | objeto | Não |
OpenAI.EvalJsonlFileIdSource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | O identificador do arquivo. | Sim | |
| tipo | enumeração | O tipo de origem jsonl. Sempre file_id.Valores possíveis: file_id |
Sim |
OpenAI.EvalList
Um objeto que representa uma lista de valores.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.Eval | Uma matriz de objetos de avaliação. | Sim | |
| first_id | cadeia | O identificador da primeira avaliação na matriz de dados. | Sim | |
| has_more | Boolean | Indica se há mais avaliações disponíveis. | Sim | |
| last_id | cadeia | O identificador da última avaliação na matriz de dados. | Sim | |
| objeto | enumeração | O tipo desse objeto. Ele é sempre definido como "lista". Valores possíveis: list |
Sim |
OpenAI.EvalLogsDataSourceConfig
Um LogsDataSourceConfig que especifica a propriedade de metadados da consulta de logs.
Geralmente, são metadados como usecase=chatbot ou prompt-version=v2etc. O esquema retornado por essa configuração de fonte de dados é usado para definir quais variáveis estão disponíveis em suas avaliações.
item e sample ambos são definidos ao usar essa configuração de fonte de dados.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não | ||
| esquema | objeto | O esquema json para os itens de fonte de dados de execução. Saiba como criar esquemas JSON aqui. |
Sim | |
| tipo | enumeração | O tipo de fonte de dados. Sempre logs.Valores possíveis: logs |
Sim |
OpenAI.EvalResponsesSource
Um objeto EvalResponsesSource que descreve uma configuração de fonte de dados de execução.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_after | inteiro ou nulo | Não | ||
| created_before | inteiro ou nulo | Não | ||
| instructions_search | cadeia de caracteres ou nulo | Não | ||
| metadados | objeto ou nulo | Não | ||
| modelo | cadeia de caracteres ou nulo | Não | ||
| reasoning_effort | OpenAI.ReasoningEffort ou nulo | Não | ||
| Temperatura | número ou nulo | Não | ||
| Ferramentas | matriz de cadeia de caracteres ou nulo | Não | ||
| top_p | número ou nulo | Não | ||
| tipo | enumeração | O tipo de fonte de dados de execução. Sempre responses.Valores possíveis: responses |
Sim | |
| Usuários | matriz de cadeia de caracteres ou nulo | Não |
OpenAI.EvalRun
Um esquema que representa uma execução de avaliação.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | Unix timestamp (em segundos) quando a execução de avaliação foi criada. | Sim | |
| Data_source | OpenAI.CreateEvalJsonlRunDataSource ou OpenAI.CreateEvalCompletionsRunDataSource ou OpenAI.CreateEvalResponsesRunDataSource | Informações sobre a fonte de dados da execução. | Sim | |
| erro | OpenAI.EvalApiError | Um objeto que representa uma resposta de erro da API de Eval. | Sim | |
| eval_id | cadeia | O identificador da avaliação associada. | Sim | |
| Id | cadeia | Identificador exclusivo para a execução da avaliação. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| modelo | cadeia | O modelo que é avaliado, se aplicável. | Sim | |
| Nome | cadeia | O nome da execução de avaliação. | Sim | |
| objeto | enumeração | O tipo do objeto. Sempre "eval.run". Valores possíveis: eval.run |
Sim | |
| per_model_usage | matriz de OpenAI.EvalRunPerModelUsage | Estatísticas de uso para cada modelo durante a execução da avaliação. | Sim | |
| per_testing_criteria_results | matriz de OpenAI.EvalRunPerTestingCriteriaResults | Resultados por critérios de teste aplicados durante a execução da avaliação. | Sim | |
| report_url | cadeia | A URL para o relatório de execução de avaliação renderizada no painel da interface do usuário. | Sim | |
| result_counts | OpenAI.EvalRunResultCounts | Sim | ||
| └─ errou | inteiro | Sim | ||
| Falha em └─ | inteiro | Sim | ||
| └─ passado | inteiro | Sim | ||
| └─ total | inteiro | Sim | ||
| status | cadeia | O status da execução de avaliação. | Sim |
OpenAI.EvalRunList
Um objeto que representa uma lista de execuções para uma avaliação.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.EvalRun | Uma matriz de objetos de execução de avaliação. | Sim | |
| first_id | cadeia | O identificador da primeira execução de avaliação na matriz de dados. | Sim | |
| has_more | Boolean | Indica se há mais avaliações disponíveis. | Sim | |
| last_id | cadeia | O identificador da última execução de avaliação na matriz de dados. | Sim | |
| objeto | enumeração | O tipo desse objeto. Ele é sempre definido como "lista". Valores possíveis: list |
Sim |
OpenAI.EvalRunOutputItem
Um esquema que representa um item de saída de execução de avaliação.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | Unix timestamp (em segundos) quando a execução de avaliação foi criada. | Sim | |
| datasource_item | objeto | Detalhes do item de fonte de dados de entrada. | Sim | |
| datasource_item_id | inteiro | O identificador do item da fonte de dados. | Sim | |
| eval_id | cadeia | O identificador do grupo de avaliação. | Sim | |
| Id | cadeia | Identificador exclusivo para o item de saída de execução de avaliação. | Sim | |
| objeto | enumeração | O tipo do objeto. Sempre "eval.run.output_item". Valores possíveis: eval.run.output_item |
Sim | |
| Resultados | matriz de OpenAI.EvalRunOutputItemResult | Uma lista de resultados do classificador para este item de saída. | Sim | |
| run_id | cadeia | O identificador da execução de avaliação associada a este item de saída. | Sim | |
| amostra | OpenAI.EvalRunOutputItemSample | Sim | ||
| └─ erro | OpenAI.EvalApiError | Um objeto que representa uma resposta de erro da API de Eval. | Sim | |
| └─ motivo_de_conclusão | cadeia | Sim | ||
| └─ entrada | matriz de OpenAI.EvalRunOutputItemSampleInput | Sim | ||
| └─ max_completion_tokens (máximo de tokens de conclusão) | inteiro | Sim | ||
| └─ modelo | cadeia | Sim | ||
| └─ saída | matriz de OpenAI.EvalRunOutputItemSampleOutput | Sim | ||
| └─ semente | inteiro | Sim | ||
| └─ temperatura | Número | Sim | ||
| └─ top_p | Número | Sim | ||
| └─ uso | OpenAI.EvalRunOutputItemSampleUsage | Sim | ||
| status | cadeia | O status da execução de avaliação. | Sim |
OpenAI.EvalRunOutputItemList
Um objeto que representa uma lista de itens de saída para uma execução de avaliação.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.EvalRunOutputItem | Uma matriz de objetos de item de saída de execução de avaliação. | Sim | |
| first_id | cadeia | O identificador do primeiro item de saída de execução de avaliação na matriz de dados. | Sim | |
| has_more | Boolean | Indica se há mais itens de saída de execução de avaliação disponíveis. | Sim | |
| last_id | cadeia | O identificador do último item de saída de execução de avaliação na matriz de dados. | Sim | |
| objeto | enumeração | O tipo desse objeto. Ele é sempre definido como "lista". Valores possíveis: list |
Sim |
OpenAI.EvalRunOutputItemResult
Um único resultado de grade para um item de saída de execução de avaliação.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | O nome do classificador. | Sim | |
| Passado | Boolean | Se o classificador considerou a saída uma passagem. | Sim | |
| amostra | objeto ou nulo | Exemplo opcional ou dados intermediários produzidos pelo classificador. | Não | |
| pontuação | Número | A pontuação numérica produzida pelo classificador. | Sim | |
| tipo | cadeia | O tipo de classificador (por exemplo, "string-check-grader"). | Não |
OpenAI.EvalRunOutputItemSample
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| erro | OpenAI.EvalApiError | Um objeto que representa uma resposta de erro da API de Eval. | Sim | |
| finish_reason | cadeia | Sim | ||
| entrada | matriz de OpenAI.EvalRunOutputItemSampleInput | Sim | ||
| max_completion_tokens | inteiro | Sim | ||
| modelo | cadeia | Sim | ||
| saída | matriz de OpenAI.EvalRunOutputItemSampleOutput | Sim | ||
| Semente | inteiro | Sim | ||
| Temperatura | Número | Sim | ||
| top_p | Número | Sim | ||
| uso | OpenAI.EvalRunOutputItemSampleUsage | Sim |
OpenAI.EvalRunOutputItemSampleInput
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia | Sim | ||
| função | cadeia | Sim |
OpenAI.EvalRunOutputItemSampleOutput
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia | Não | ||
| função | cadeia | Não |
OpenAI.EvalRunOutputItemSampleUsage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| cached_tokens | inteiro | Sim | ||
| completion_tokens | inteiro | Sim | ||
| prompt_tokens | inteiro | Sim | ||
| total_tokens | inteiro | Sim |
OpenAI.EvalRunPerModelUsage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| cached_tokens | inteiro | Sim | ||
| completion_tokens | inteiro | Sim | ||
| invocation_count | inteiro | Sim | ||
| model_name | cadeia | Sim | ||
| prompt_tokens | inteiro | Sim | ||
| total_tokens | inteiro | Sim |
OpenAI.EvalRunPerTestingCriteriaResults
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Falhou | inteiro | Sim | ||
| Passado | inteiro | Sim | ||
| testing_criteria | cadeia | Sim |
OpenAI.EvalRunResultCounts
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| erro | inteiro | Sim | ||
| Falhou | inteiro | Sim | ||
| Passado | inteiro | Sim | ||
| Total | inteiro | Sim |
OpenAI.EvalStoredCompletionsDataSourceConfig
Preterido em favor de LogsDataSourceConfig.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não | ||
| esquema | objeto | O esquema json para os itens de fonte de dados de execução. Saiba como criar esquemas JSON aqui. |
Sim | |
| tipo | enumeração | O tipo de fonte de dados. Sempre stored_completions.Valores possíveis: stored_completions |
Sim |
OpenAI.EvalStoredCompletionsSource
Uma configuração StoredCompletionsRunDataSource que descreve um conjunto de filtros
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_after | inteiro ou nulo | Não | ||
| created_before | inteiro ou nulo | Não | ||
| Limite | inteiro ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo de origem. Sempre stored_completions.Valores possíveis: stored_completions |
Sim |
OpenAI.FileCitationBody
Uma citação a um arquivo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | A ID do arquivo. | Sim | |
| Filename | cadeia | O nome do arquivo citado. | Sim | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. | Sim | |
| tipo | enumeração | O tipo da citação de arquivo. Sempre file_citation.Valores possíveis: file_citation |
Sim |
OpenAI.FilePath
Um caminho para um arquivo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | A ID do arquivo. | Sim | |
| indexar | inteiro | O índice do arquivo na lista de arquivos. | Sim | |
| tipo | enumeração | O tipo do caminho do arquivo. Sempre file_path.Valores possíveis: file_path |
Sim |
OpenAI.FileSearchRanker
O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | autodefault_2024_08_21 |
OpenAI.FileSearchRankingOptions
As opções de classificação para a pesquisa de arquivo. Se não for especificado, a ferramenta de pesquisa de arquivos usará o auto classificador e um score_threshold de 0.
Consulte a documentação da ferramenta de pesquisa de arquivos para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| classificador | OpenAI.FileSearchRanker | O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador. |
Não | |
| score_threshold | Número | O limite de pontuação para a pesquisa de arquivo. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Restrições: min: 0, max: 1 |
Sim |
OpenAI.FileSearchTool
Uma ferramenta que pesquisa conteúdo relevante de arquivos carregados.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtros | OpenAI.Filters ou nulo | Não | ||
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. | Não | |
| ranking_options | OpenAI.RankingOptions | Não | ||
| └─ hybrid_search | OpenAI.HybridSearchOptions | Pesos que controlam como a fusão de classificação recíproca equilibra correspondências de inserção semântica versus correspondências de palavra-chave esparsa quando a pesquisa híbrida está habilitada. | Não | |
| └─ ranker | OpenAI.RankerVersionType | O classificador a ser usado para a pesquisa de arquivos. | Não | |
| └─ limite_de_pontuação | Número | O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. | Não | |
| tipo | enumeração | O tipo da ferramenta de pesquisa de arquivo. Sempre file_search.Valores possíveis: file_search |
Sim | |
| vector_store_ids | matriz de cadeia de caracteres | As IDs dos repositórios de vetores a serem pesquisadas. | Sim |
OpenAI.FileSearchToolCallResults
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Não | ||
| File_id | cadeia | Não | ||
| Filename | cadeia | Não | ||
| pontuação | Número | Não | ||
| enviar SMS | cadeia | Não |
OpenAI.Filters
Tipo: OpenAI.ComparisonFilter ou OpenAI.CompoundFilter
OpenAI.FineTuneDPOHyperparameters
Os hiperparâmetros usados para o trabalho de ajuste fino do DPO.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| batch_size | cadeia de caracteres ou inteiro | Número de exemplos em cada lote. Um tamanho de lote maior significa que os parâmetros de modelo são atualizados com menos frequência, mas com menor variação. | Não | |
| beta | cadeia de caracteres ou número | O valor beta do método DPO. Um valor beta mais alto aumentará o peso da penalidade entre a política e o modelo de referência. | Não | |
| learning_rate_multiplier | cadeia de caracteres ou número | Fator de dimensionamento para a taxa de aprendizado. Uma taxa de aprendizagem menor pode ser útil para evitar a sobreajuste. | Não | |
| n_epochs | cadeia de caracteres ou inteiro | O número de épocas para as quais treinar o modelo. Uma época refere-se a um ciclo completo por meio do conjunto de dados de treinamento. | Não |
OpenAI.FineTuneDPOMethod
Configuração do método de ajuste fino do DPO.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| hiperparâmetros | OpenAI.FineTuneDPOHyperparameters | Os hiperparâmetros usados para o trabalho de ajuste fino do DPO. | Não |
OpenAI.FineTuneMethod
O método usado para ajuste fino.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Dpo | OpenAI.FineTuneDPOMethod | Configuração do método de ajuste fino do DPO. | Não | |
| Reforço | AzureFineTuneReinforcementMethod | Não | ||
| Supervisionado | OpenAI.FineTuneSupervisedMethod | Configuração do método de ajuste fino supervisionado. | Não | |
| tipo | enumeração | O tipo de método. É, superviseddpoou reinforcement.Valores possíveis: supervised, , dporeinforcement |
Sim |
OpenAI.FineTuneReinforcementHyperparameters
Os hiperparâmetros usados para o trabalho de ajuste fino de reforço.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| batch_size | cadeia de caracteres ou inteiro | Número de exemplos em cada lote. Um tamanho de lote maior significa que os parâmetros de modelo são atualizados com menos frequência, mas com menor variação. | Não | |
| compute_multiplier | cadeia de caracteres ou número | Multiplicador na quantidade de computação usada para explorar o espaço de pesquisa durante o treinamento. | Não | |
| eval_interval | cadeia de caracteres ou inteiro | O número de etapas de treinamento entre as execuções de avaliação. | Não | |
| eval_samples | cadeia de caracteres ou inteiro | Número de exemplos de avaliação a serem gerados por etapa de treinamento. | Não | |
| learning_rate_multiplier | cadeia de caracteres ou número | Fator de dimensionamento para a taxa de aprendizado. Uma taxa de aprendizagem menor pode ser útil para evitar a sobreajuste. | Não | |
| n_epochs | cadeia de caracteres ou inteiro | O número de épocas para as quais treinar o modelo. Uma época refere-se a um ciclo completo por meio do conjunto de dados de treinamento. | Não | |
| reasoning_effort | enumeração | Nível de esforço de raciocínio. Valores possíveis: default, , low, mediumhigh |
Não |
OpenAI.FineTuneSupervisedHyperparameters
Os hiperparâmetros usados para o trabalho de ajuste fino.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| batch_size | cadeia de caracteres ou inteiro | Número de exemplos em cada lote. Um tamanho de lote maior significa que os parâmetros de modelo são atualizados com menos frequência, mas com menor variação. | Não | |
| learning_rate_multiplier | cadeia de caracteres ou número | Fator de dimensionamento para a taxa de aprendizado. Uma taxa de aprendizagem menor pode ser útil para evitar a sobreajuste. | Não | |
| n_epochs | cadeia de caracteres ou inteiro | O número de épocas para as quais treinar o modelo. Uma época refere-se a um ciclo completo por meio do conjunto de dados de treinamento. | Não |
OpenAI.FineTuneSupervisedMethod
Configuração do método de ajuste fino supervisionado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| hiperparâmetros | OpenAI.FineTuneSupervisedHyperparameters | Os hiperparâmetros usados para o trabalho de ajuste fino. | Não |
OpenAI.FineTuningCheckpointPermission
O checkpoint.permission objeto representa uma permissão para um ponto de verificação de modelo ajustado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando a permissão foi criada. | Sim | |
| Id | cadeia | O identificador de permissão, que pode ser referenciado nos pontos de extremidade da API. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "checkpoint.permission". Valores possíveis: checkpoint.permission |
Sim | |
| project_id | cadeia | O identificador do projeto para o qual a permissão é. | Sim |
OpenAI.FineTuningIntegration
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo da integração que está sendo habilitada para o trabalho de ajuste fino Valores possíveis: wandb |
Sim | |
| wandb | OpenAI.FineTuningIntegrationWandb | Sim | ||
| └─ entidade | cadeia de caracteres ou nulo | Não | ||
| └─ nome | cadeia de caracteres ou nulo | Não | ||
| └─ projeto | cadeia | Sim | ||
| └─ marcas | matriz de cadeia de caracteres | Não |
OpenAI.FineTuningIntegrationWandb
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entidade | cadeia de caracteres ou nulo | Não | ||
| Nome | cadeia de caracteres ou nulo | Não | ||
| projeto | cadeia | Sim | ||
| Tags | matriz de cadeia de caracteres | Não |
OpenAI.FineTuningJob
O fine_tuning.job objeto representa um trabalho de ajuste fino que foi criado por meio da API.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o trabalho de ajuste fino foi criado. | Sim | |
| erro | OpenAI.FineTuningJobError ou nulo | Sim | ||
| estimated_finish | cadeia de caracteres ou nulo | Não | ||
| fine_tuned_model | cadeia de caracteres ou nulo | Sim | ||
| finished_at | cadeia de caracteres ou nulo | Sim | ||
| hiperparâmetros | OpenAI.FineTuningJobHyperparameters | Sim | ||
| └─ tamanho_do_lote (batch_size) | cadeia de caracteres ou inteiro ou nulo | Não | Automático | |
| └─ multiplicador_da_taxa_de_aprendizagem | cadeia de caracteres ou número | Não | ||
| └─ n_epochs | cadeia de caracteres ou inteiro | Não | Automático | |
| Id | cadeia | O identificador de objeto, que pode ser referenciado nos pontos de extremidade da API. | Sim | |
| Integrações | matriz de OpenAI.FineTuningIntegration ou null | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| método | OpenAI.FineTuneMethod | O método usado para ajuste fino. | Não | |
| modelo | cadeia | O modelo base que está sendo ajustado. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "fine_tuning.job". Valores possíveis: fine_tuning.job |
Sim | |
| organization_id | cadeia | A organização que possui o trabalho de ajuste fino. | Sim | |
| result_files | matriz de cadeia de caracteres | As IDs do arquivo de resultados compilados para o trabalho de ajuste fino. Você pode recuperar os resultados com a API de Arquivos. | Sim | |
| Semente | inteiro | A semente usada para o trabalho de ajuste fino. | Sim | |
| status | enumeração | O status atual do trabalho de ajuste fino, que pode ser, , validating_files, , queuedrunning, ou succeededfailed.cancelledValores possíveis: validating_files, , queued, running, succeeded, , failedcancelled |
Sim | |
| trained_tokens | inteiro ou nulo | Sim | ||
| training_file | cadeia | A ID do arquivo usada para treinamento. Você pode recuperar os dados de treinamento com a API de Arquivos. | Sim | |
| validation_file | cadeia de caracteres ou nulo | Sim |
OpenAI.FineTuningJobCheckpoint
O fine_tuning.job.checkpoint objeto representa um ponto de verificação de modelo para um trabalho de ajuste fino que está pronto para uso.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o ponto de verificação foi criado. | Sim | |
| fine_tuned_model_checkpoint | cadeia | O nome do modelo de ponto de verificação ajustado que é criado. | Sim | |
| fine_tuning_job_id | cadeia | O nome do trabalho de ajuste fino do qual esse ponto de verificação foi criado. | Sim | |
| Id | cadeia | O identificador de ponto de verificação, que pode ser referenciado nos pontos de extremidade da API. | Sim | |
| métricas | OpenAI.FineTuningJobCheckpointMetrics | Sim | ||
| └─ perda_total_de_validacao | Número | Não | ||
| └─ precisão_média_de_tokens_válidos_completos | Número | Não | ||
| └─ etapa | Número | Não | ||
| └─ perda_ao_treinar (train_loss) | Número | Não | ||
| └─ precisão_média_de_tokens_em_treinamento (train_mean_token_accuracy) | Número | Não | ||
| └─ perda_de_validação | Número | Não | ||
| └─ precisão_média_dos_tokens_válidos | Número | Não | ||
| objeto | enumeração | O tipo de objeto, que é sempre "fine_tuning.job.checkpoint". Valores possíveis: fine_tuning.job.checkpoint |
Sim | |
| step_number | inteiro | O número da etapa em que o ponto de verificação foi criado. | Sim |
OpenAI.FineTuningJobCheckpointMetrics
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| full_valid_loss | Número | Não | ||
| full_valid_mean_token_accuracy | Número | Não | ||
| etapa | Número | Não | ||
| train_loss | Número | Não | ||
| train_mean_token_accuracy | Número | Não | ||
| valid_loss | Número | Não | ||
| valid_mean_token_accuracy | Número | Não |
OpenAI.FineTuningJobError
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia | Sim | ||
| mensagem | cadeia | Sim | ||
| param | cadeia de caracteres ou nulo | Sim |
OpenAI.FineTuningJobEvent
Objeto de evento de trabalho de ajuste fino
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o trabalho de ajuste fino foi criado. | Sim | |
| dados | OpenAI.FineTuningJobEventData | Não | ||
| Id | cadeia | O identificador do objeto. | Sim | |
| nível | enumeração | O nível de log do evento. Valores possíveis: info, , warnerror |
Sim | |
| mensagem | cadeia | A mensagem do evento. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "fine_tuning.job.event". Valores possíveis: fine_tuning.job.event |
Sim | |
| tipo | enumeração | O tipo de evento. Valores possíveis: message, metrics |
Não |
OpenAI.FineTuningJobEventData
Tipo: objeto
OpenAI.FineTuningJobHyperparameters
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| batch_size | cadeia de caracteres ou inteiro ou nulo | Não | ||
| learning_rate_multiplier | cadeia de caracteres ou número | Não | ||
| n_epochs | cadeia de caracteres ou inteiro | Não |
OpenAI.FunctionAndCustomToolCallOutput
Discriminador para OpenAI.FunctionAndCustomToolCallOutput
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
input_text |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent |
input_image |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent |
input_file |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.FunctionAndCustomToolCallOutputType | Sim |
OpenAI.FunctionAndCustomToolCallOutputInputFileContent
Uma entrada de arquivo para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado para o modelo. | Não | |
| File_id | cadeia de caracteres ou nulo | Não | ||
| file_url | cadeia | A URL do arquivo a ser enviado para o modelo. | Não | |
| Filename | cadeia | O nome do arquivo a ser enviado para o modelo. | Não | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Sim |
OpenAI.FunctionAndCustomToolCallOutputInputImageContent
Uma entrada de imagem para o modelo. Saiba mais sobre entradas de imagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | OpenAI.ImageDetail | Sim | ||
| File_id | cadeia de caracteres ou nulo | Não | ||
| image_url | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Sim |
OpenAI.FunctionAndCustomToolCallOutputInputTextContent
Uma entrada de texto para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. | Sim | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Sim |
OpenAI.FunctionAndCustomToolCallOutputType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | input_textinput_imageinput_file |
OpenAI.FunctionObject
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
| Nome | cadeia | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
| Parâmetros | OpenAI.FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
| Estrita | booliano ou nulo | Não |
OpenAI.FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters define uma função com uma lista de parâmetros vazia.
Tipo: objeto
OpenAI.FunctionShellAction
Execute um comando de shell.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Comandos | matriz de cadeia de caracteres | Sim | ||
| max_output_length | inteiro ou nulo | Sim | ||
| timeout_ms | inteiro ou nulo | Sim |
OpenAI.FunctionShellCallOutputContent
O conteúdo de uma saída de chamada de ferramenta de shell que foi emitida.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_by | cadeia | O identificador do ator que criou o item. | Não | |
| Resultado | OpenAI.FunctionShellCallOutputOutcome | Representa um resultado de saída (com um código de saída) ou um resultado de tempo limite para uma parte de saída de chamada de shell. | Sim | |
| └─ tipo | OpenAI.FunctionShellCallOutputOutcomeType | Sim | ||
| Stderr | cadeia | A saída de erro padrão que foi capturada. | Sim | |
| Stdout | cadeia | A saída padrão que foi capturada. | Sim |
OpenAI.FunctionShellCallOutputExitOutcome
Indica que os comandos do shell foram concluídos e retornaram um código de saída.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| exit_code | inteiro | Saia do código do processo de shell. | Sim | |
| tipo | enumeração | O tipo de resultado. Sempre exit.Valores possíveis: exit |
Sim |
OpenAI.FunctionShellCallOutputOutcome
Representa um resultado de saída (com um código de saída) ou um resultado de tempo limite para uma parte de saída de chamada de shell.
Discriminador para OpenAI.FunctionShellCallOutputOutcome
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
timeout |
OpenAI.FunctionShellCallOutputTimeoutOutcome |
exit |
OpenAI.FunctionShellCallOutputExitOutcome |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.FunctionShellCallOutputOutcomeType | Sim |
OpenAI.FunctionShellCallOutputOutcomeType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | timeoutexit |
OpenAI.FunctionShellCallOutputTimeoutOutcome
Indica que a chamada de shell excedeu o limite de tempo configurado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de resultado. Sempre timeout.Valores possíveis: timeout |
Sim |
OpenAI.FunctionShellToolParam
Uma ferramenta que permite que o modelo execute comandos de shell.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta de shell. Sempre shell.Valores possíveis: shell |
Sim |
OpenAI.FunctionTool
Define uma função em seu próprio código que o modelo pode optar por chamar.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia de caracteres ou nulo | Não | ||
| Nome | cadeia | O nome da função a ser chamada. | Sim | |
| Parâmetros | objeto ou nulo | Sim | ||
| Estrita | booliano ou nulo | Sim | ||
| tipo | enumeração | O tipo da ferramenta de função. Sempre function.Valores possíveis: function |
Sim |
OpenAI.GraderMulti
Um objeto MultiGrader combina a saída de vários alunos para produzir uma pontuação única.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| calculate_output | cadeia | Uma fórmula para calcular a saída com base nos resultados do classificador. | Sim | |
| Série | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderScoreModel ou GraderEndpoint | Sim | ||
| Nome | cadeia | O nome do classificador. | Sim | |
| tipo | enumeração | O tipo de objeto, que é sempre multi.Valores possíveis: multi |
Sim |
OpenAI.GraderPython
Um objeto PythonGrader que executa um script python na entrada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| image_tag | cadeia | A marca de imagem a ser usada para o script python. | Não | |
| Nome | cadeia | O nome do classificador. | Sim | |
| fonte | cadeia | O código-fonte do script python. | Sim | |
| tipo | enumeração | O tipo de objeto, que é sempre python.Valores possíveis: python |
Sim |
OpenAI.GraderScoreModel
Um objeto ScoreModelGrader que usa um modelo para atribuir uma pontuação à entrada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | matriz de OpenAI.EvalItem | As mensagens de entrada avaliadas pelo classificador. Dá suporte a blocos de conteúdo de áudio de entrada, texto de saída, texto de saída e texto de entrada e pode incluir cadeias de caracteres de modelo. | Sim | |
| modelo | cadeia | O modelo a ser usado para a avaliação. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| alcance | matriz de número | O intervalo da pontuação. O padrão é [0, 1]. |
Não | |
| sampling_params | OpenAI.EvalGraderScoreModelSamplingParams | Não | ||
| └─ max_completions_tokens | inteiro ou nulo | Não | ||
| └─ esforço_de_raciocínio | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| └─ semente | inteiro ou nulo | Não | ||
| └─ temperatura | número ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| tipo | enumeração | O tipo de objeto, que é sempre score_model.Valores possíveis: score_model |
Sim |
OpenAI.GraderStringCheck
Um objeto StringCheckGrader que executa uma comparação de cadeia de caracteres entre entrada e referência usando uma operação especificada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | cadeia | O texto de entrada. Isso pode incluir cadeias de caracteres de modelo. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| operação | enumeração | A operação de verificação de cadeia de caracteres a ser executada. Um de eq, ne, likeou ilike.Valores possíveis: eq, , ne, likeilike |
Sim | |
| referência | cadeia | O texto de referência. Isso pode incluir cadeias de caracteres de modelo. | Sim | |
| tipo | enumeração | O tipo de objeto, que é sempre string_check.Valores possíveis: string_check |
Sim |
OpenAI.GraderTextSimilarity
Um objeto TextSimilarityGrader que classifica o texto com base em métricas de similaridade.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| evaluation_metric | enumeração | A métrica de avaliação a ser usada. Um de cosine, fuzzy_match, , bleugleu, meteor, rouge_1, rouge_2, , rouge_3, rouge_4, , rouge_5ou rouge_l.Valores possíveis: cosine, , fuzzy_match, bleu, gleu, meteor, rouge_1, , rouge_2, rouge_3, , rouge_4, , rouge_5rouge_l |
Sim | |
| entrada | cadeia | O texto que está sendo classificado. | Sim | |
| Nome | cadeia | O nome do classificador. | Sim | |
| referência | cadeia | O texto que está sendo classificado. | Sim | |
| tipo | enumeração | O tipo de classificador. Valores possíveis: text_similarity |
Sim |
OpenAI.GrammarSyntax1
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | larkregex |
OpenAI.HybridSearchOptions
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| embedding_weight | Número | O peso da inserção na fusão de classificação recíproca. | Sim | |
| text_weight | Número | O peso do texto na fusão de classificação recíproca. | Sim |
OpenAI.ImageDetail
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | lowhighauto |
OpenAI.ImageGenTool
Uma ferramenta que gera imagens usando os modelos de imagem GPT.
Modelos válidos:
gpt-image-1
gpt-image-1-mini
gpt-image-2
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| em segundo plano | enumeração | Tipo de plano de fundo para a imagem gerada. Um de transparent,opaque, ou auto. Padrão: auto.Valores possíveis: transparent, , opaqueauto |
Não | |
| input_fidelity | OpenAI.InputFidelity ou null | Não | ||
| input_image_mask | OpenAI.ImageGenToolInputImageMask | Não | ||
| └─ identificador_de_arquivo | cadeia | Não | ||
| └─ URL da imagem | cadeia | Não | ||
| modelo | cadeia de caracteres (veja os modelos válidos abaixo) | Não | ||
| Moderação | enumeração | Nível de moderação para a imagem gerada. Padrão: auto.Valores possíveis: auto, low |
Não | |
| output_compression | inteiro | Nível de compactação para a imagem de saída. Padrão: 100. Restrições: min: 0, máximo: 100 |
Não | 100 |
| output_format | enumeração | O formato de saída da imagem gerada. Um de png, webpoujpeg. Padrão: png.Valores possíveis: png, , webpjpeg |
Não | |
| partial_images | inteiro | Número de imagens parciais a serem geradas no modo de streaming, de 0 (valor padrão) a 3. Restrições: min: 0, max: 3 |
Não | |
| Qualidade | enumeração | A qualidade da imagem gerada. Um de low, medium, , highou auto. Padrão: auto.Valores possíveis: low, , medium, highauto |
Não | |
| Tamanho | enumeração | O tamanho da imagem gerada. Um de 1024x1024, 1024x15361536x1024, ou auto. Padrão: auto.Valores possíveis: 1024x1024, , 1024x1536, 1536x1024auto |
Não | |
| tipo | enumeração | O tipo da ferramenta de geração de imagem. Sempre image_generation.Valores possíveis: image_generation |
Sim |
OpenAI.ImageGenToolInputImageMask
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | Não | ||
| image_url | cadeia | Não |
OpenAI.IncludeEnum
Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são:
-
web_search_call.action.sources: inclua as fontes da chamada da ferramenta de pesquisa na Web. -
code_interpreter_call.outputs: inclui as saídas da execução de código python em itens de chamada de ferramenta de interpretador de código. -
computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador. -
file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos. -
message.input_image.image_url: inclua urls de imagem da mensagem de entrada. -
message.output_text.logprobs: inclua logprobs com mensagens de assistente. -
reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao usar a API de Respostas sem estado (como quando ostoreparâmetro é definidofalsecomo , ou quando uma organização é registrada no programa de retenção de dados zero).
| Propriedade | Valor |
|---|---|
| Descrição | Especifique dados de saída adicionais a serem incluídos na resposta do modelo. Os valores com suporte no momento são: |
-
web_search_call.action.sources: inclua as fontes da chamada da ferramenta de pesquisa na Web. -
code_interpreter_call.outputs: inclui as saídas da execução de código python em itens de chamada de ferramenta de interpretador de código. -
computer_call_output.output.image_url: inclua urls de imagem da saída da chamada do computador. -
file_search_call.results: inclua os resultados da pesquisa da chamada da ferramenta de pesquisa de arquivos. -
message.input_image.image_url: inclua urls de imagem da mensagem de entrada. -
message.output_text.logprobs: inclua logprobs com mensagens de assistente. -
reasoning.encrypted_content: inclui uma versão criptografada de tokens de raciocínio em saídas de itens de raciocínio. Isso permite que os itens de raciocínio sejam usados em conversas de vários turnos ao usar a API de Respostas sem estado (como quando ostoreparâmetro é definidofalsecomo , ou quando uma organização é registrada no programa de retenção de dados zero). | | Tipo | cadeia de caracteres | | Valores |file_search_call.resultsweb_search_call.resultsweb_search_call.action.sourcesmessage.input_image.image_urlcomputer_call_output.output.image_urlcode_interpreter_call.outputsreasoning.encrypted_contentmessage.output_text.logprobs|
OpenAI.InputAudio
Uma entrada de áudio para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_audio | OpenAI.InputAudioInputAudio | Sim | ||
| tipo | enumeração | O tipo do item de entrada. Sempre input_audio.Valores possíveis: input_audio |
Sim |
OpenAI.InputAudioInputAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | cadeia | Sim | ||
| Formato | enumeração | Valores possíveis: mp3, wav |
Sim |
OpenAI.InputContent
Discriminador para OpenAI.InputContent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
input_text |
OpenAI.InputContentInputTextContent |
input_image |
OpenAI.InputContentInputImageContent |
input_file |
OpenAI.InputContentInputFileContent |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.InputContentType | Sim |
OpenAI.InputContentInputFileContent
Uma entrada de arquivo para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado para o modelo. | Não | |
| File_id | cadeia de caracteres ou nulo | Não | ||
| file_url | cadeia | A URL do arquivo a ser enviado para o modelo. | Não | |
| Filename | cadeia | O nome do arquivo a ser enviado para o modelo. | Não | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Sim |
OpenAI.InputContentInputImageContent
Uma entrada de imagem para o modelo. Saiba mais sobre entradas de imagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | OpenAI.ImageDetail | Sim | ||
| File_id | cadeia de caracteres ou nulo | Não | ||
| image_url | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Sim |
OpenAI.InputContentInputTextContent
Uma entrada de texto para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. | Sim | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Sim |
OpenAI.InputContentType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | input_textinput_imageinput_file |
OpenAI.InputFidelity
Controlar o esforço que o modelo exercerá para corresponder ao estilo e aos recursos, especialmente os recursos faciais, das imagens de entrada. Esse parâmetro só tem suporte para gpt-image-1 e gpt-image-2. Sem suporte para gpt-image-1-mini. Suportes high e low. O padrão é low.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | highlow |
OpenAI.InputFileContent
Uma entrada de arquivo para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_data | cadeia | O conteúdo do arquivo a ser enviado para o modelo. | Não | |
| File_id | cadeia de caracteres ou nulo | Não | ||
| file_url | cadeia | A URL do arquivo a ser enviado para o modelo. | Não | |
| Filename | cadeia | O nome do arquivo a ser enviado para o modelo. | Não | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_file.Valores possíveis: input_file |
Sim |
OpenAI.InputImageContent
Uma entrada de imagem para o modelo. Saiba mais sobre entradas de imagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | OpenAI.ImageDetail | Sim | ||
| File_id | cadeia de caracteres ou nulo | Não | ||
| image_url | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo do item de entrada. Sempre input_image.Valores possíveis: input_image |
Sim |
OpenAI.InputItem
Discriminador para OpenAI.InputItem
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
message |
OpenAI.EasyInputMessage |
item_reference |
OpenAI.ItemReferenceParam |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.InputItemType | Sim |
OpenAI.InputItemType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | messageitem_reference |
OpenAI.InputMessageContentList
Uma lista de um ou muitos itens de entrada para o modelo, contendo tipos de conteúdo diferentes.
Matriz de: OpenAI.InputContent
OpenAI.InputMessageResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | OpenAI.InputMessageContentList | Uma lista de um ou muitos itens de entrada para o modelo, contendo conteúdo diferente Tipos. |
Sim | |
| Id | cadeia | A ID exclusiva da entrada da mensagem. | Sim | |
| função | enumeração | A função da entrada da mensagem. Um de user, systemou developer.Valores possíveis: user, , systemdeveloper |
Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo de entrada da mensagem. Sempre definido como message.Valores possíveis: message |
Sim |
OpenAI.InputParam
Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. Saiba Mais:
- Entradas e saídas de texto
- Entradas de imagem
- Entradas de arquivo
- Estado da conversa
- Chamada de função
Tipo: cadeia de caracteres ou matriz de OpenAI.InputItem
Entradas de texto, imagem ou arquivo para o modelo, usadas para gerar uma resposta. Saiba Mais:
- Entradas e saídas de texto
- Entradas de imagem
- Entradas de arquivo
- Estado da conversa
- Chamada de função
OpenAI.InputTextContent
Uma entrada de texto para o modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | A entrada de texto para o modelo. | Sim | |
| tipo | enumeração | O tipo do item de entrada. Sempre input_text.Valores possíveis: input_text |
Sim |
OpenAI.ItemReferenceParam
Um identificador interno para um item a ser referenciado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID do item a ser referenciado. | Sim | |
| tipo | enumeração | O tipo de item a ser referenciado. Sempre item_reference.Valores possíveis: item_reference |
Sim |
OpenAI.ItemResource
Item de conteúdo usado para gerar uma resposta.
Discriminador para OpenAI.ItemResource
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ItemResourceType | Sim |
OpenAI.ItemResourceApplyPatchToolCall
Uma chamada de ferramenta que aplica diferenças de arquivo criando, excluindo ou atualizando arquivos.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch. Populado quando esse item é retornado por meio da API. | Sim | |
| operação | OpenAI.ApplyPatchFileOperation | Uma das operações de create_file, delete_file ou update_file aplicadas por meio de apply_patch. | Sim | |
| └─ tipo | OpenAI.ApplyPatchFileOperationType | Sim | ||
| status | OpenAI.ApplyPatchCallStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre apply_patch_call.Valores possíveis: apply_patch_call |
Sim |
OpenAI.ItemResourceApplyPatchToolCallOutput
A saída emitida por uma chamada de ferramenta aplicar patch.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa saída de chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da saída de chamada da ferramenta aplicar patch. Populado quando esse item é retornado por meio da API. | Sim | |
| saída | cadeia de caracteres ou nulo | Não | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre apply_patch_call_output.Valores possíveis: apply_patch_call_output |
Sim |
OpenAI.ItemResourceCodeInterpreterToolCall
Uma chamada de ferramenta para executar o código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia de caracteres ou nulo | Sim | ||
| container_id | cadeia | A ID do contêiner usado para executar o código. | Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta interpretador de código. | Sim | |
| Saídas | matriz de OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null | Sim | ||
| status | enumeração | O status da chamada da ferramenta interpretador de código. Os valores válidos são in_progress, , completed, incomplete, interpretinge failed.Valores possíveis: in_progress, , completed, incomplete, interpreting, failed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta interpretador de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Sim |
OpenAI.ItemResourceComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador. Consulte o guia de uso do computador para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.ComputerAction | Sim | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. | Sim | |
| Id | cadeia | A ID exclusiva da chamada do computador. | Sim | |
| pending_safety_checks | matriz de OpenAI.ComputerCallSafetyCheckParam | As verificações de segurança pendentes para a chamada do computador. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da chamada do computador. Sempre computer_call.Valores possíveis: computer_call |
Sim |
OpenAI.ItemResourceComputerToolCallOutputResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| acknowledged_safety_checks | matriz de OpenAI.ComputerCallSafetyCheckParam | As verificações de segurança relatadas pela API que foram confirmadas pela Desenvolvedor. |
Não | |
| call_id | cadeia | A ID da chamada da ferramenta de computador que produziu a saída. | Sim | |
| Id | cadeia | A ID da saída da chamada da ferramenta de computador. | Não | |
| saída | OpenAI.ComputerScreenshotImage | Uma imagem de captura de tela do computador usada com a ferramenta de uso do computador. | Sim | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedouincomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de computador. Sempre computer_call_output.Valores possíveis: computer_call_output |
Sim |
OpenAI.ItemResourceFileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivo. Consulte o guia de pesquisa de arquivos para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa de arquivos. | Sim | |
| Consultas | matriz de cadeia de caracteres | As consultas usadas para pesquisar arquivos. | Sim | |
| Resultados | matriz de OpenAI.FileSearchToolCallResults ou null | Não | ||
| status | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress,searching, incomplete ou failed,Valores possíveis: in_progress, , searching, completed, incomplete, failed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.Valores possíveis: file_search_call |
Sim |
OpenAI.ItemResourceFunctionShellCall
Uma chamada de ferramenta que executa um ou mais comandos de shell em um ambiente gerenciado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.FunctionShellAction | Execute um comando de shell. | Sim | |
| Comandos └─ | matriz de cadeia de caracteres | Sim | ||
| └─ max_output_length | inteiro ou nulo | Sim | ||
| └─ timeout_ms | inteiro ou nulo | Sim | ||
| call_id | cadeia | A ID exclusiva da chamada de ferramenta de shell gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta shell. Populado quando esse item é retornado por meio da API. | Sim | |
| status | OpenAI.LocalShellCallStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre shell_call.Valores possíveis: shell_call |
Sim |
OpenAI.ItemResourceFunctionShellCallOutput
A saída de uma chamada de ferramenta de shell que foi emitida.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada de ferramenta de shell gerada pelo modelo. | Sim | |
| created_by | cadeia | O identificador do ator que criou o item. | Não | |
| Id | cadeia | A ID exclusiva da saída de chamada do shell. Populado quando esse item é retornado por meio da API. | Sim | |
| max_output_length | inteiro ou nulo | Sim | ||
| saída | matriz de OpenAI.FunctionShellCallOutputContent | Uma matriz de conteúdo de saída de chamada de shell | Sim | |
| tipo | enumeração | O tipo da saída da chamada de shell. Sempre shell_call_output.Valores possíveis: shell_call_output |
Sim |
OpenAI.ItemResourceFunctionToolCallOutputResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da saída da chamada da ferramenta de função. Populado quando este item é retornado por meio da API. |
Não | |
| saída | cadeia de caracteres ou matriz de OpenAI.FunctionAndCustomToolCallOutput | A saída da chamada de função gerada pelo código. Pode ser uma cadeia de caracteres ou uma lista de conteúdo de saída. |
Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da saída de chamada da ferramenta de função. Sempre function_call_output.Valores possíveis: function_call_output |
Sim |
OpenAI.ItemResourceFunctionToolCallResource
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. | Sim | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta de função. | Não | |
| Nome | cadeia | O nome da função a ser executada. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da chamada da ferramenta de função. Sempre function_call.Valores possíveis: function_call |
Sim |
OpenAI.ItemResourceImageGenToolCall
Uma solicitação de geração de imagem feita pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada de geração de imagem. | Sim | |
| Resultado | cadeia de caracteres ou nulo | Sim | ||
| status | enumeração | O status da chamada de geração de imagem. Valores possíveis: in_progress, , completed, generatingfailed |
Sim | |
| tipo | enumeração | O tipo da chamada de geração de imagem. Sempre image_generation_call.Valores possíveis: image_generation_call |
Sim |
OpenAI.ItemResourceLocalShellToolCall
Uma chamada de ferramenta para executar um comando no shell local.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.LocalShellExecAction | Execute um comando shell no servidor. | Sim | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da chamada de shell local. | Sim | |
| status | enumeração | O status da chamada de shell local. Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da chamada de shell local. Sempre local_shell_call.Valores possíveis: local_shell_call |
Sim |
OpenAI.ItemResourceLocalShellToolCallOutput
A saída de uma chamada de ferramenta de shell local.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Sim | |
| saída | cadeia | Uma cadeia de caracteres JSON da saída da chamada da ferramenta de shell local. | Sim | |
| status | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo da saída da chamada da ferramenta de shell local. Sempre local_shell_call_output.Valores possíveis: local_shell_call_output |
Sim |
OpenAI.ItemResourceMcpApprovalRequest
Um pedido de aprovação humana de uma invocação de ferramenta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Uma cadeia de caracteres JSON de argumentos para a ferramenta. | Sim | |
| Id | cadeia | A ID exclusiva da solicitação de aprovação. | Sim | |
| Nome | cadeia | O nome da ferramenta a ser executada. | Sim | |
| server_label | cadeia | O rótulo do servidor MCP que está fazendo a solicitação. | Sim | |
| tipo | enumeração | O tipo do item. Sempre mcp_approval_request.Valores possíveis: mcp_approval_request |
Sim |
OpenAI.ItemResourceMcpApprovalResponseResource
Uma resposta a uma solicitação de aprovação do MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| approval_request_id | cadeia | A ID da solicitação de aprovação que está sendo respondida. | Sim | |
| Aprovar | Boolean | Se a solicitação foi aprovada. | Sim | |
| Id | cadeia | A ID exclusiva da resposta de aprovação | Sim | |
| Razão | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo do item. Sempre mcp_approval_response.Valores possíveis: mcp_approval_response |
Sim |
OpenAI.ItemResourceMcpListTools
Uma lista de ferramentas disponíveis em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| erro | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID exclusiva da lista. | Sim | |
| server_label | cadeia | O rótulo do servidor MCP. | Sim | |
| Ferramentas | matriz de OpenAI.MCPListToolsTool | As ferramentas disponíveis no servidor. | Sim | |
| tipo | enumeração | O tipo do item. Sempre mcp_list_tools.Valores possíveis: mcp_list_tools |
Sim |
OpenAI.ItemResourceMcpToolCall
Uma invocação de uma ferramenta em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| approval_request_id | cadeia de caracteres ou nulo | Não | ||
| Argumentos | cadeia | Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. | Sim | |
| erro | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID exclusiva da chamada de ferramenta. | Sim | |
| Nome | cadeia | O nome da ferramenta que foi executada. | Sim | |
| saída | cadeia de caracteres ou nulo | Não | ||
| server_label | cadeia | O rótulo do servidor MCP que executa a ferramenta. | Sim | |
| status | OpenAI.MCPToolCallStatus | Não | ||
| tipo | enumeração | O tipo do item. Sempre mcp_call.Valores possíveis: mcp_call |
Sim |
OpenAI.ItemResourceOutputMessage
Uma mensagem de saída do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.OutputMessageContent | O conteúdo da mensagem de saída. | Sim | |
| Id | cadeia | A ID exclusiva da mensagem de saída. | Sim | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Sim | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedouincomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: output_message |
Sim |
OpenAI.ItemResourceType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | messageoutput_messagefile_search_callcomputer_callcomputer_call_outputweb_search_callfunction_callfunction_call_outputimage_generation_callcode_interpreter_calllocal_shell_calllocal_shell_call_outputshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_list_toolsmcp_approval_requestmcp_approval_responsemcp_call |
OpenAI.ItemResourceWebSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa na Web. Consulte o guia de pesquisa na Web para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.WebSearchActionSearch ou OpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind | Um objeto que descreve a ação específica executada nesta chamada de pesquisa na Web. Inclui detalhes sobre como o modelo usou a Web (pesquisa, open_page, localizar). |
Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa na Web. | Sim | |
| status | enumeração | O status da chamada da ferramenta de pesquisa na Web. Valores possíveis: in_progress, , searching, completedfailed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa na Web. Sempre web_search_call.Valores possíveis: web_search_call |
Sim |
OpenAI.KeyPressAction
Uma coleção de teclas que o modelo deseja executar.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Chaves | matriz de cadeia de caracteres | A combinação de teclas que o modelo está solicitando que sejam pressionadas. Essa é uma matriz de cadeias de caracteres, cada uma representando uma chave. | Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação keypress, essa propriedade é sempre definida como keypress.Valores possíveis: keypress |
Sim |
OpenAI.ListBatchesResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.Batch | Sim | ||
| first_id | cadeia | Não | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Não | ||
| objeto | enumeração | Valores possíveis: list |
Sim |
OpenAI.ListFilesResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.OpenAIFile | Sim | ||
| first_id | cadeia | Sim | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.ListFineTuningCheckpointPermissionResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.FineTuningCheckpointPermission | Sim | ||
| first_id | cadeia de caracteres ou nulo | Não | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia de caracteres ou nulo | Não | ||
| objeto | enumeração | Valores possíveis: list |
Sim |
OpenAI.ListFineTuningJobCheckpointsResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.FineTuningJobCheckpoint | Sim | ||
| first_id | cadeia de caracteres ou nulo | Não | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia de caracteres ou nulo | Não | ||
| objeto | enumeração | Valores possíveis: list |
Sim |
OpenAI.ListFineTuningJobEventsResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.FineTuningJobEvent | Sim | ||
| has_more | Boolean | Sim | ||
| objeto | enumeração | Valores possíveis: list |
Sim |
OpenAI.ListMessagesResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.MessageObject | Sim | ||
| first_id | cadeia | Sim | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.ListModelsResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.Model | Sim | ||
| objeto | enumeração | Valores possíveis: list |
Sim |
OpenAI.ListPaginatedFineTuningJobsResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.FineTuningJob | Sim | ||
| has_more | Boolean | Sim | ||
| objeto | enumeração | Valores possíveis: list |
Sim |
OpenAI.ListRunStepsResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.RunStepObject | Sim | ||
| first_id | cadeia | Sim | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.ListRunsResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.RunObject | Sim | ||
| first_id | cadeia | Sim | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.ListVectorStoreFilesResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.VectorStoreFileObject | Sim | ||
| first_id | cadeia | Sim | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.ListVectorStoresResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.VectorStoreObject | Sim | ||
| first_id | cadeia | Sim | ||
| has_more | Boolean | Sim | ||
| last_id | cadeia | Sim | ||
| objeto | cadeia | Sim |
OpenAI.LocalShellCallStatus
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | in_progresscompletedincomplete |
OpenAI.LocalShellExecAction
Execute um comando shell no servidor.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Comando | matriz de cadeia de caracteres | O comando a ser executado. | Sim | |
| Env | objeto | Variáveis de ambiente a serem definidas para o comando. | Sim | |
| timeout_ms | inteiro ou nulo | Não | ||
| tipo | enumeração | O tipo da ação do shell local. Sempre exec.Valores possíveis: exec |
Sim | |
| usuário | cadeia de caracteres ou nulo | Não | ||
| working_directory | cadeia de caracteres ou nulo | Não |
OpenAI.LocalShellToolParam
Uma ferramenta que permite que o modelo execute comandos de shell em um ambiente local.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo da ferramenta de shell local. Sempre local_shell.Valores possíveis: local_shell |
Sim |
OpenAI.LogProb
A probabilidade de log de um token.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bytes | matriz de inteiro | Sim | ||
| logprob | Número | Sim | ||
| símbolo | cadeia | Sim | ||
| top_logprobs | matriz de OpenAI.TopLogProb | Sim |
OpenAI.MCPListToolsToolsTool
Uma ferramenta disponível em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anotações | OpenAI.MCPListToolsToolAnnotations ou null | Não | ||
| Descrição | cadeia de caracteres ou nulo | Não | ||
| input_schema | OpenAI.MCPListToolsToolInputSchema | Sim | ||
| Nome | cadeia | O nome da ferramenta. | Sim |
OpenAI.MCPListToolsToolAnnotations
Tipo: objeto
OpenAI.MCPListToolsToolInputSchema
Tipo: objeto
OpenAI.MCPTool
Conceda ao modelo acesso a ferramentas adicionais por meio de servidores remotos do PROTOCOLO MCP (Protocolo de Contexto de Modelo). Saiba mais sobre o MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| allowed_tools | matriz de cadeia de caracteres ou OpenAI.MCPToolFilter ou nulo | Não | ||
| autorização | cadeia | Um token de acesso OAuth que pode ser usado com um servidor MCP remoto, com uma URL de servidor MCP personalizada ou um conector de serviço. Seu aplicativo deve lidar com o fluxo de autorização OAuth e fornecer o token aqui. |
Não | |
| connector_id | enumeração | Identificador para conectores de serviço, como aqueles disponíveis no ChatGPT. Um dosserver_url ou connector_id deve ser fornecido. Saiba mais sobre o serviçoconectores aqui. Os valores com connector_id suporte no momento são:-Dropbox: connector_dropbox-Gmail: connector_gmail- Google Calendar: connector_googlecalendar- Google Drive: connector_googledrive- Microsoft Teams: connector_microsoftteams- Calendário do Outlook: connector_outlookcalendar- Email do Outlook: connector_outlookemail-Sharepoint: connector_sharepointValores possíveis: connector_dropbox, , connector_gmail, connector_googlecalendar, connector_googledrive, connector_microsoftteams, connector_outlookcalendar, , , connector_outlookemailconnector_sharepoint |
Não | |
| Cabeçalhos | objeto ou nulo | Não | ||
| require_approval | OpenAI.MCPToolRequireApproval ou cadeia de caracteres ou nulo | Não | ||
| server_description | cadeia | Descrição opcional do servidor MCP, usada para fornecer mais contexto. | Não | |
| server_label | cadeia | Um rótulo para esse servidor MCP, usado para identificá-lo em chamadas de ferramenta. | Sim | |
| server_url | cadeia | A URL do servidor MCP. Um de server_url ou connector_id deve serFornecido. |
Não | |
| tipo | enumeração | O tipo da ferramenta MCP. Sempre mcp.Valores possíveis: mcp |
Sim |
OpenAI.MCPToolCallStatus
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | in_progresscompletedincompletecallingfailed |
OpenAI.MCPToolFilter
Um objeto de filtro para especificar quais ferramentas são permitidas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Read_only | Boolean | Indica se uma ferramenta modifica ou não dados ou é somente leitura. Se um O servidor MCP é anotado com readOnlyHint,ele corresponderá a esse filtro. |
Não | |
| tool_names | matriz de cadeia de caracteres | Lista de nomes de ferramentas permitidos. | Não |
OpenAI.MCPToolRequireApproval
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Sempre | OpenAI.MCPToolFilter | Um objeto de filtro para especificar quais ferramentas são permitidas. | Não | |
| Nunca | OpenAI.MCPToolFilter | Um objeto de filtro para especificar quais ferramentas são permitidas. | Não |
OpenAI.MessageContent
Discriminador para OpenAI.MessageContent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
image_url |
OpenAI.MessageContentImageUrlObject |
text |
OpenAI.MessageContentTextObject |
refusal |
OpenAI.MessageContentRefusalObject |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.MessageContentType | Sim |
OpenAI.MessageContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Arquivo_de_imagem | OpenAI.MessageContentImageFileObjectImageFile | Sim | ||
| tipo | enumeração | Sempre image_file.Valores possíveis: image_file |
Sim |
OpenAI.MessageContentImageFileObjectImageFile
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | enumeração | Valores possíveis: auto, , lowhigh |
Não | |
| File_id | cadeia | Sim |
OpenAI.MessageContentImageUrlObject
Faz referência a uma URL de imagem no conteúdo de uma mensagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| image_url | OpenAI.MessageContentImageUrlObjectImageUrl | Sim | ||
| tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim |
OpenAI.MessageContentImageUrlObjectImageUrl
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Detalhe | enumeração | Valores possíveis: auto, , lowhigh |
Não | |
| Url | cadeia | Sim |
OpenAI.MessageContentRefusalObject
O conteúdo de recusa gerado pelo assistente.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Recusa | cadeia | Sim | ||
| tipo | enumeração | Sempre refusal.Valores possíveis: refusal |
Sim |
OpenAI.MessageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| end_index | inteiro | Restrições: min: 0 | Sim | |
| file_citation | OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation | Sim | ||
| start_index | inteiro | Restrições: min: 0 | Sim | |
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
| tipo | enumeração | Sempre file_citation.Valores possíveis: file_citation |
Sim |
OpenAI.MessageContentTextAnnotationsFileCitationObjectFileCitation
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | Sim |
OpenAI.MessageContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| end_index | inteiro | Restrições: min: 0 | Sim | |
| file_path | OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath | Sim | ||
| start_index | inteiro | Restrições: min: 0 | Sim | |
| enviar SMS | cadeia | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
| tipo | enumeração | Sempre file_path.Valores possíveis: file_path |
Sim |
OpenAI.MessageContentTextAnnotationsFilePathObjectFilePath
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | Sim |
OpenAI.MessageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | OpenAI.MessageContentTextObjectText | Sim | ||
| tipo | enumeração | Sempre text.Valores possíveis: text |
Sim |
OpenAI.MessageContentTextObjectText
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anotações | matriz de OpenAI.TextAnnotation | Sim | ||
| Valor | cadeia | Sim |
OpenAI.MessageContentType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | image_fileimage_urltextrefusal |
OpenAI.MessageObject
Representa uma mensagem dentro de um thread.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia de caracteres ou nulo | Sim | ||
| Anexos | matriz de OpenAI.MessageObjectAttachments ou null | Sim | ||
| completed_at | cadeia de caracteres ou nulo | Sim | ||
| conteúdo | matriz de OpenAI.MessageContent | O conteúdo da mensagem na matriz de texto e/ou imagens. | Sim | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando a mensagem foi criada. | Sim | |
| Id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| incomplete_at | cadeia de caracteres ou nulo | Sim | ||
| incomplete_details | OpenAI.MessageObjectIncompleteDetails ou null | Sim | ||
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| objeto | enumeração | O tipo de objeto, que é sempre thread.message.Valores possíveis: thread.message |
Sim | |
| função | enumeração | A entidade que produziu a mensagem. Um de user ou assistant.Valores possíveis: user, assistant |
Sim | |
| run_id | cadeia de caracteres ou nulo | Sim | ||
| status | enumeração | O status da mensagem, que pode ser in_progress, incompleteou completed.Valores possíveis: in_progress, , incompletecompleted |
Sim | |
| thread_id | cadeia | A ID do thread à qual essa mensagem pertence. | Sim |
OpenAI.MessageObjectAttachments
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | Não | ||
| Ferramentas | matriz de OpenAI.AssistantToolsCode ou OpenAI.AssistantToolsFileSearchTypeOnly | Não |
OpenAI.MessageObjectIncompleteDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Razão | enumeração | Valores possíveis: content_filter, , max_tokens, run_cancelled, run_expired, run_failed |
Sim |
OpenAI.MessageRequestContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | Conteúdo de texto a ser enviado para o modelo | Sim | |
| tipo | enumeração | Sempre text.Valores possíveis: text |
Sim |
OpenAI.MessageRole
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | unknownuserassistantsystemcriticdiscriminatordevelopertool |
OpenAI.MessageStatus
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | in_progresscompletedincomplete |
OpenAI.Metadata
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres.
Tipo: objeto
OpenAI.Model
Descreve uma oferta de modelo openai que pode ser usada com a API.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Criado | inteiro | O carimbo de data/hora unix (em segundos) quando o modelo foi criado. | Sim | |
| Id | cadeia | O identificador de modelo, que pode ser referenciado nos pontos de extremidade da API. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre "model". Valores possíveis: model |
Sim | |
| owned_by | cadeia | A organização que possui o modelo. | Sim |
OpenAI.ModifyMessageRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não |
OpenAI.ModifyRunRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não |
OpenAI.ModifyThreadRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Não | ||
| tool_resources | OpenAI.ModifyThreadRequestToolResources ou null | Não |
OpenAI.ModifyThreadRequestToolResources
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| code_interpreter | OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter | Não | ||
| File_search | OpenAI.ModifyThreadRequestToolResourcesFileSearch | Não |
OpenAI.ModifyThreadRequestToolResourcesCodeInterpreter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_ids | matriz de cadeia de caracteres | Não |
OpenAI.ModifyThreadRequestToolResourcesFileSearch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| vector_store_ids | matriz de cadeia de caracteres | Não |
OpenAI.Move
Uma ação de movimentação do mouse.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de movimentação, essa propriedade é sempre definido como move.Valores possíveis: move |
Sim | |
| X | inteiro | A coordenada x para a qual mover. | Sim | |
| Y | inteiro | A coordenada y para a qual mover. | Sim |
OpenAI.NoiseReductionType
Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | near_fieldfar_field |
OpenAI.OpenAIFile
O File objeto representa um documento que foi carregado no OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bytes | inteiro | O tamanho do arquivo, em bytes. | Sim | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o arquivo foi criado. | Sim | |
| expires_at | inteiro | O carimbo de data/hora unix (em segundos) para quando o arquivo expirará. | Não | |
| Filename | cadeia | O nome do arquivo. | Sim | |
| Id | cadeia | O identificador de arquivo, que pode ser referenciado nos pontos de extremidade da API. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre file.Valores possíveis: file |
Sim | |
| Propósito | enumeração | A finalidade pretendida do arquivo. Os valores com suporte sãoassistants, , assistants_output, batche batch_outputfine-tunefine-tune-results.Valores possíveis: assistants, , assistants_output, batch, batch_output, fine-tune, , fine-tune-results, evals |
Sim | |
| status | enumeração | Valores possíveis: uploaded, , pending, running, processed, error, , deleting, deleted |
Sim | |
| status_details | cadeia de caracteres (preterida) | Preterido. Para obter detalhes sobre por que um arquivo de treinamento de ajuste fino falhou na validação, consulte o error campo em fine_tuning.job. |
Não |
OpenAI.OtherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de agrupamento é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Sempre other.Valores possíveis: other |
Sim |
OpenAI.OutputContent
Discriminador para OpenAI.OutputContent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
output_text |
OpenAI.OutputContentOutputTextContent |
refusal |
OpenAI.OutputContentRefusalContent |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.OutputContentType | Sim |
OpenAI.OutputContentOutputTextContent
Uma saída de texto do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anotações | matriz de OpenAI.Annotation | As anotações da saída de texto. | Sim | |
| logprobs | matriz de OpenAI.LogProb | Não | ||
| enviar SMS | cadeia | A saída de texto do modelo. | Sim | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Sim |
OpenAI.OutputContentRefusalContent
Uma recusa do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Recusa | cadeia | A explicação da recusa do modelo. | Sim | |
| tipo | enumeração | O tipo da recusa. Sempre refusal.Valores possíveis: refusal |
Sim |
OpenAI.OutputContentType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | output_textrefusalreasoning_text |
OpenAI.OutputItem
Discriminador para OpenAI.OutputItem
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
output_message |
OpenAI.OutputItemOutputMessage |
file_search_call |
OpenAI.OutputItemFileSearchToolCall |
function_call |
OpenAI.OutputItemFunctionToolCall |
web_search_call |
OpenAI.OutputItemWebSearchToolCall |
computer_call |
OpenAI.OutputItemComputerToolCall |
reasoning |
OpenAI.OutputItemReasoningItem |
compaction |
OpenAI.OutputItemCompactionBody |
image_generation_call |
OpenAI.OutputItemImageGenToolCall |
code_interpreter_call |
OpenAI.OutputItemCodeInterpreterToolCall |
local_shell_call |
OpenAI.OutputItemLocalShellToolCall |
shell_call |
OpenAI.OutputItemFunctionShellCall |
shell_call_output |
OpenAI.OutputItemFunctionShellCallOutput |
apply_patch_call |
OpenAI.OutputItemApplyPatchToolCall |
apply_patch_call_output |
OpenAI.OutputItemApplyPatchToolCallOutput |
mcp_call |
OpenAI.OutputItemMcpToolCall |
mcp_list_tools |
OpenAI.OutputItemMcpListTools |
mcp_approval_request |
OpenAI.OutputItemMcpApprovalRequest |
custom_tool_call |
OpenAI.OutputItemCustomToolCall |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.OutputItemType | Sim |
OpenAI.OutputItemApplyPatchToolCall
Uma chamada de ferramenta que aplica diferenças de arquivo criando, excluindo ou atualizando arquivos.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch. Populado quando esse item é retornado por meio da API. | Sim | |
| operação | OpenAI.ApplyPatchFileOperation | Uma das operações de create_file, delete_file ou update_file aplicadas por meio de apply_patch. | Sim | |
| └─ tipo | OpenAI.ApplyPatchFileOperationType | Sim | ||
| status | OpenAI.ApplyPatchCallStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre apply_patch_call.Valores possíveis: apply_patch_call |
Sim |
OpenAI.OutputItemApplyPatchToolCallOutput
A saída emitida por uma chamada de ferramenta aplicar patch.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada da ferramenta aplicar patch gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa saída de chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da saída de chamada da ferramenta aplicar patch. Populado quando esse item é retornado por meio da API. | Sim | |
| saída | cadeia de caracteres ou nulo | Não | ||
| status | OpenAI.ApplyPatchCallOutputStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre apply_patch_call_output.Valores possíveis: apply_patch_call_output |
Sim |
OpenAI.OutputItemCodeInterpreterToolCall
Uma chamada de ferramenta para executar o código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia de caracteres ou nulo | Sim | ||
| container_id | cadeia | A ID do contêiner usado para executar o código. | Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta interpretador de código. | Sim | |
| Saídas | matriz de OpenAI.CodeInterpreterOutputLogs ou OpenAI.CodeInterpreterOutputImage ou null | Sim | ||
| status | enumeração | O status da chamada da ferramenta interpretador de código. Os valores válidos são in_progress, , completed, incomplete, interpretinge failed.Valores possíveis: in_progress, , completed, incomplete, interpreting, failed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta interpretador de código. Sempre code_interpreter_call.Valores possíveis: code_interpreter_call |
Sim |
OpenAI.OutputItemCompactionBody
Um item de compactação gerado pela v1/responses/compact API.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_by | cadeia | O identificador do ator que criou o item. | Não | |
| encrypted_content | cadeia | O conteúdo criptografado que foi produzido pela compactação. | Sim | |
| Id | cadeia | A ID exclusiva do item de compactação. | Sim | |
| tipo | enumeração | O tipo do item. Sempre compaction.Valores possíveis: compaction |
Sim |
OpenAI.OutputItemComputerToolCall
Uma chamada de ferramenta para uma ferramenta de uso de computador. Consulte o guia de uso do computador para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.ComputerAction | Sim | ||
| call_id | cadeia | Um identificador usado ao responder à chamada de ferramenta com saída. | Sim | |
| Id | cadeia | A ID exclusiva da chamada do computador. | Sim | |
| pending_safety_checks | matriz de OpenAI.ComputerCallSafetyCheckParam | As verificações de segurança pendentes para a chamada do computador. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da chamada do computador. Sempre computer_call.Valores possíveis: computer_call |
Sim |
OpenAI.OutputItemCustomToolCall
Uma chamada para uma ferramenta personalizada criada pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | Um identificador usado para mapear essa chamada de ferramenta personalizada para uma saída de chamada de ferramenta. | Sim | |
| Id | cadeia | A ID exclusiva da chamada de ferramenta personalizada na plataforma OpenAI. | Não | |
| entrada | cadeia | A entrada para a chamada de ferramenta personalizada gerada pelo modelo. | Sim | |
| Nome | cadeia | O nome da ferramenta personalizada que está sendo chamada. | Sim | |
| tipo | enumeração | O tipo da chamada de ferramenta personalizada. Sempre custom_tool_call.Valores possíveis: custom_tool_call |
Sim |
OpenAI.OutputItemFileSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa de arquivo. Consulte o guia de pesquisa de arquivos para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa de arquivos. | Sim | |
| Consultas | matriz de cadeia de caracteres | As consultas usadas para pesquisar arquivos. | Sim | |
| Resultados | matriz de OpenAI.FileSearchToolCallResults ou null | Não | ||
| status | enumeração | O status da chamada da ferramenta de pesquisa de arquivos. Um de in_progress,searching, incomplete ou failed,Valores possíveis: in_progress, , searching, completed, incomplete, failed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa de arquivo. Sempre file_search_call.Valores possíveis: file_search_call |
Sim |
OpenAI.OutputItemFunctionShellCall
Uma chamada de ferramenta que executa um ou mais comandos de shell em um ambiente gerenciado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.FunctionShellAction | Execute um comando de shell. | Sim | |
| Comandos └─ | matriz de cadeia de caracteres | Sim | ||
| └─ max_output_length | inteiro ou nulo | Sim | ||
| └─ timeout_ms | inteiro ou nulo | Sim | ||
| call_id | cadeia | A ID exclusiva da chamada de ferramenta de shell gerada pelo modelo. | Sim | |
| created_by | cadeia | A ID da entidade que criou essa chamada de ferramenta. | Não | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta shell. Populado quando esse item é retornado por meio da API. | Sim | |
| status | OpenAI.LocalShellCallStatus | Sim | ||
| tipo | enumeração | O tipo do item. Sempre shell_call.Valores possíveis: shell_call |
Sim |
OpenAI.OutputItemFunctionShellCallOutput
A saída de uma chamada de ferramenta de shell que foi emitida.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| call_id | cadeia | A ID exclusiva da chamada de ferramenta de shell gerada pelo modelo. | Sim | |
| created_by | cadeia | O identificador do ator que criou o item. | Não | |
| Id | cadeia | A ID exclusiva da saída de chamada do shell. Populado quando esse item é retornado por meio da API. | Sim | |
| max_output_length | inteiro ou nulo | Sim | ||
| saída | matriz de OpenAI.FunctionShellCallOutputContent | Uma matriz de conteúdo de saída de chamada de shell | Sim | |
| tipo | enumeração | O tipo da saída da chamada de shell. Sempre shell_call_output.Valores possíveis: shell_call_output |
Sim |
OpenAI.OutputItemFunctionToolCall
Uma chamada de ferramenta para executar uma função. Consulte o guia de chamada de função para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Uma cadeia de caracteres JSON dos argumentos a serem passados para a função. | Sim | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de função gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta de função. | Não | |
| Nome | cadeia | O nome da função a ser executada. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| tipo | enumeração | O tipo da chamada da ferramenta de função. Sempre function_call.Valores possíveis: function_call |
Sim |
OpenAI.OutputItemImageGenToolCall
Uma solicitação de geração de imagem feita pelo modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | A ID exclusiva da chamada de geração de imagem. | Sim | |
| Resultado | cadeia de caracteres ou nulo | Sim | ||
| status | enumeração | O status da chamada de geração de imagem. Valores possíveis: in_progress, , completed, generatingfailed |
Sim | |
| tipo | enumeração | O tipo da chamada de geração de imagem. Sempre image_generation_call.Valores possíveis: image_generation_call |
Sim |
OpenAI.OutputItemLocalShellToolCall
Uma chamada de ferramenta para executar um comando no shell local.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.LocalShellExecAction | Execute um comando shell no servidor. | Sim | |
| call_id | cadeia | A ID exclusiva da chamada da ferramenta de shell local gerada pelo modelo. | Sim | |
| Id | cadeia | A ID exclusiva da chamada de shell local. | Sim | |
| status | enumeração | O status da chamada de shell local. Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da chamada de shell local. Sempre local_shell_call.Valores possíveis: local_shell_call |
Sim |
OpenAI.OutputItemMcpApprovalRequest
Um pedido de aprovação humana de uma invocação de ferramenta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Uma cadeia de caracteres JSON de argumentos para a ferramenta. | Sim | |
| Id | cadeia | A ID exclusiva da solicitação de aprovação. | Sim | |
| Nome | cadeia | O nome da ferramenta a ser executada. | Sim | |
| server_label | cadeia | O rótulo do servidor MCP que está fazendo a solicitação. | Sim | |
| tipo | enumeração | O tipo do item. Sempre mcp_approval_request.Valores possíveis: mcp_approval_request |
Sim |
OpenAI.OutputItemMcpListTools
Uma lista de ferramentas disponíveis em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| erro | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID exclusiva da lista. | Sim | |
| server_label | cadeia | O rótulo do servidor MCP. | Sim | |
| Ferramentas | matriz de OpenAI.MCPListToolsTool | As ferramentas disponíveis no servidor. | Sim | |
| tipo | enumeração | O tipo do item. Sempre mcp_list_tools.Valores possíveis: mcp_list_tools |
Sim |
OpenAI.OutputItemMcpToolCall
Uma invocação de uma ferramenta em um servidor MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| approval_request_id | cadeia de caracteres ou nulo | Não | ||
| Argumentos | cadeia | Uma cadeia de caracteres JSON dos argumentos passados para a ferramenta. | Sim | |
| erro | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | A ID exclusiva da chamada de ferramenta. | Sim | |
| Nome | cadeia | O nome da ferramenta que foi executada. | Sim | |
| saída | cadeia de caracteres ou nulo | Não | ||
| server_label | cadeia | O rótulo do servidor MCP que executa a ferramenta. | Sim | |
| status | OpenAI.MCPToolCallStatus | Não | ||
| tipo | enumeração | O tipo do item. Sempre mcp_call.Valores possíveis: mcp_call |
Sim |
OpenAI.OutputItemOutputMessage
Uma mensagem de saída do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.OutputMessageContent | O conteúdo da mensagem de saída. | Sim | |
| Id | cadeia | A ID exclusiva da mensagem de saída. | Sim | |
| função | enumeração | A função da mensagem de saída. Sempre assistant.Valores possíveis: assistant |
Sim | |
| status | enumeração | O status da entrada da mensagem. Um de in_progress, completedouincomplete. Populado quando os itens de entrada são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Sim | |
| tipo | enumeração | O tipo da mensagem de saída. Sempre message.Valores possíveis: output_message |
Sim |
OpenAI.OutputItemReasoningItem
Uma descrição da cadeia de pensamento usada por um modelo de raciocínio ao gerar uma resposta. Certifique-se de incluir esses itens na input API de Respostas para as próximas rodadas de uma conversa se você estiver gerenciando manualmente o contexto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.ReasoningTextContent | Conteúdo de texto de raciocínio. | Não | |
| encrypted_content | cadeia de caracteres ou nulo | Não | ||
| Id | cadeia | O identificador exclusivo do conteúdo de raciocínio. | Sim | |
| status | enumeração | O status do item. Um de in_progress, completedouincomplete. Populado quando os itens são retornados por meio da API.Valores possíveis: in_progress, , completedincomplete |
Não | |
| resumo | matriz de OpenAI.Summary | Conteúdo de resumo de raciocínio. | Sim | |
| tipo | enumeração | O tipo do objeto. Sempre reasoning.Valores possíveis: reasoning |
Sim |
OpenAI.OutputItemType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | output_messagefile_search_callfunction_callweb_search_callcomputer_callreasoningcompactionimage_generation_callcode_interpreter_calllocal_shell_callshell_callshell_call_outputapply_patch_callapply_patch_call_outputmcp_callmcp_list_toolsmcp_approval_requestcustom_tool_call |
OpenAI.OutputItemWebSearchToolCall
Os resultados de uma chamada de ferramenta de pesquisa na Web. Consulte o guia de pesquisa na Web para obter mais informações.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ação | OpenAI.WebSearchActionSearch ou OpenAI.WebSearchActionOpenPage ou OpenAI.WebSearchActionFind | Um objeto que descreve a ação específica executada nesta chamada de pesquisa na Web. Inclui detalhes sobre como o modelo usou a Web (pesquisa, open_page, localizar). |
Sim | |
| Id | cadeia | A ID exclusiva da chamada da ferramenta de pesquisa na Web. | Sim | |
| status | enumeração | O status da chamada da ferramenta de pesquisa na Web. Valores possíveis: in_progress, , searching, completedfailed |
Sim | |
| tipo | enumeração | O tipo da chamada da ferramenta de pesquisa na Web. Sempre web_search_call.Valores possíveis: web_search_call |
Sim |
OpenAI.OutputMessageContent
Discriminador para OpenAI.OutputMessageContent
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
output_text |
OpenAI.OutputMessageContentOutputTextContent |
refusal |
OpenAI.OutputMessageContentRefusalContent |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.OutputMessageContentType | Sim |
OpenAI.OutputMessageContentOutputTextContent
Uma saída de texto do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anotações | matriz de OpenAI.Annotation | As anotações da saída de texto. | Sim | |
| logprobs | matriz de OpenAI.LogProb | Não | ||
| enviar SMS | cadeia | A saída de texto do modelo. | Sim | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Sim |
OpenAI.OutputMessageContentRefusalContent
Uma recusa do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Recusa | cadeia | A explicação da recusa do modelo. | Sim | |
| tipo | enumeração | O tipo da recusa. Sempre refusal.Valores possíveis: refusal |
Sim |
OpenAI.OutputMessageContentType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | output_textrefusal |
OpenAI.OutputTextContent
Uma saída de texto do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Anotações | matriz de OpenAI.Annotation | As anotações da saída de texto. | Sim | |
| logprobs | matriz de OpenAI.LogProb | Não | ||
| enviar SMS | cadeia | A saída de texto do modelo. | Sim | |
| tipo | enumeração | O tipo do texto de saída. Sempre output_text.Valores possíveis: output_text |
Sim |
OpenAI.ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Tipo: booliano
OpenAI.PredictionContent
Conteúdo de saída previsto estático, como o conteúdo de um arquivo de texto que está sendo regenerado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia de caracteres ou matriz de OpenAI.ChatCompletionRequestMessageContentPartText | O conteúdo que deve ser correspondido ao gerar uma resposta de modelo. Se os tokens gerados corresponderem a esse conteúdo, toda a resposta do modelo pode ser retornado muito mais rapidamente. |
Sim | |
| tipo | enumeração | O tipo do conteúdo previsto que você deseja fornecer. Esse tipo é atualmente sempre content.Valores possíveis: content |
Sim |
OpenAI.Prompt
Referência a um modelo de prompt e suas variáveis. Saiba mais.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Id | cadeia | O identificador exclusivo do modelo de prompt a ser usado. | Sim | |
| Variáveis | OpenAI.ResponsePromptVariables ou nulo | Não | ||
| versão | cadeia de caracteres ou nulo | Não |
OpenAI.RankerVersionType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | autodefault-2024-11-15 |
OpenAI.RankingOptions
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| hybrid_search | OpenAI.HybridSearchOptions | Não | ||
| └─ embedding_weight | Número | O peso da inserção na fusão de classificação recíproca. | Sim | |
| └─ text_weight | Número | O peso do texto na fusão de classificação recíproca. | Sim | |
| classificador | OpenAI.RankerVersionType | Não | ||
| score_threshold | Número | O limite de pontuação para a pesquisa de arquivos, um número entre 0 e 1. Números mais próximos de 1 tentarão retornar apenas os resultados mais relevantes, mas podem retornar menos resultados. | Não |
OpenAI.RealtimeAudioFormats
Discriminador para OpenAI.RealtimeAudioFormats
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
audio/pcm |
OpenAI.RealtimeAudioFormatsAudioPcm |
audio/pcmu |
OpenAI.RealtimeAudioFormatsAudioPcmu |
audio/pcma |
OpenAI.RealtimeAudioFormatsAudioPcma |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.RealtimeAudioFormatsType | Sim |
OpenAI.RealtimeAudioFormatsAudioPcm
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Taxa | enumeração | Valores possíveis: 24000 |
Não | |
| tipo | enumeração | Valores possíveis: audio/pcm |
Sim |
OpenAI.RealtimeAudioFormatsAudioPcma
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: audio/pcma |
Sim |
OpenAI.RealtimeAudioFormatsAudioPcmu
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: audio/pcmu |
Sim |
OpenAI.RealtimeAudioFormatsType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | audio/pcmaudio/pcmuaudio/pcma |
OpenAI.RealtimeCallCreateRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Sdp | cadeia | Oferta do Protocolo de Descrição da Sessão webRTC (SDP) gerada pelo chamador. | Sim | |
| sessão | OpenAI.RealtimeSessionCreateRequestGA | Configuração do objeto de sessão em tempo real. | Não | |
| └─ áudio | OpenAI.RealtimeSessionCreateRequestGAAudio | Configuração para áudio de entrada e saída. | Não | |
| └─ inclua | matriz de cadeia de caracteres | Campos adicionais a serem incluídos nas saídas do servidor.item.input_audio_transcription.logprobs: inclua logprobs para transcrição de áudio de entrada. |
Não | |
| └─ instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
Não | |
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| └─ modelo | cadeia | O modelo em tempo real usado para esta sessão. | Não | |
| └─ output_modalities | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Ele usa como padrão, ["audio"]indicandoque o modelo responderá com áudio mais uma transcrição. ["text"] pode ser usado para fazero modelo responde somente com texto. Não é possível solicitar ambos text e audio ao mesmo tempo. |
Não | ['audio'] |
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Como o modelo escolhe as ferramentas. Fornecer um dos modos de cadeia de caracteres ou forçar um específico ferramenta function/MCP. |
Não | Automático |
| └─ ferramentas | matriz de OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Ferramentas disponíveis para o modelo. | Não | |
| └─ rastreamento | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | "" Definido como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | Automático |
| └─ truncamento | OpenAI.RealtimeTruncation | Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo. |
Não | |
| └─ tipo | enumeração | O tipo de sessão a ser criada. Sempre realtime para a API em tempo real.Valores possíveis: realtime |
Sim |
OpenAI.RealtimeCallReferRequest
Parâmetros necessários para transferir uma chamada SIP para um novo destino usando a API realtime.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| target_uri | cadeia | URI que deve aparecer no cabeçalho Refer-To SIP. Dá suporte a valores comotel:+14155550123 ou sip:agent\@example.com. |
Sim |
OpenAI.RealtimeCallRejectRequest
Parâmetros usados para recusar uma chamada SIP de entrada manipulada pela API realtime.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| status_code | inteiro | Código de resposta SIP para enviar de volta ao chamador. O padrão é 603 (recusar)quando omitido. |
Não |
OpenAI.RealtimeCreateClientSecretRequest
Crie uma sessão e um segredo do cliente para a API do Realtime. A solicitação pode especificar uma configuração de sessão de transcrição ou em tempo real. Saiba mais sobre a API em tempo real.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | OpenAI.RealtimeCreateClientSecretRequestExpiresAfter | Não | ||
| └─ âncora | enumeração | Valores possíveis: created_at |
Não | |
| └─ segundos | inteiro | Restrições: min: 10, máximo: 7200 | Não | 600 |
| sessão | OpenAI.RealtimeSessionCreateRequestUnion | Não | ||
| └─ tipo | OpenAI.RealtimeSessionCreateRequestUnionType | Sim |
OpenAI.RealtimeCreateClientSecretRequestExpiresAfter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| âncora | enumeração | Valores possíveis: created_at |
Não | |
| Segundos | inteiro | Restrições: min: 10, máximo: 7200 | Não | 600 |
OpenAI.RealtimeCreateClientSecretResponse
Resposta da criação de uma sessão e um segredo do cliente para a API em tempo real.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_at | inteiro | Carimbo de data/hora de expiração para o segredo do cliente, em segundos desde a época. | Sim | |
| sessão | OpenAI.RealtimeSessionCreateResponseUnion | Sim | ||
| └─ tipo | OpenAI.RealtimeSessionCreateResponseUnionType | Sim | ||
| Valor | cadeia | O valor do segredo do cliente gerado. | Sim |
OpenAI.RealtimeFunctionTool
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | A descrição da função, incluindo diretrizes sobre quando e como para chamá-lo e diretrizes sobre o que dizer ao usuário ao chamar (se alguma coisa). |
Não | |
| Nome | cadeia | O nome da função. | Não | |
| Parâmetros | OpenAI.RealtimeFunctionToolParameters | Não | ||
| tipo | enumeração | O tipo da ferramenta, ou seja, function.Valores possíveis: function |
Não |
OpenAI.RealtimeFunctionToolParameters
Tipo: objeto
OpenAI.RealtimeSessionCreateRequest
Uma nova configuração de sessão em tempo real, com uma chave efêmera. O TTL padrão para chaves é de um minuto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeSessionCreateRequestClientSecret | Sim | ||
| └─ data_de_expiração | inteiro | Sim | ||
| └─ valor | cadeia | Sim | ||
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw. |
Não | |
| input_audio_transcription | OpenAI.RealtimeSessionCreateRequestInputAudioTranscription | Não | ||
| └─ modelo | cadeia | Não | ||
| Instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
Não | |
| max_response_output_tokens | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| Modalidades | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina isso como ["text"]. |
Não | ['text', 'audio'] |
| output_audio_format | cadeia | O formato do áudio de saída. As opções são pcm16, g711_ulawou g711_alaw. |
Não | |
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| Velocidade | Número | A velocidade da resposta falada do modelo. 1.0 é a velocidade padrão. 0,25 é a velocidade mínima. 1,5 é a velocidade máxima. Esse valor só pode ser alterado entre as curvas de modelo, não enquanto uma resposta estiver em andamento. Restrições: min: 0,25, máximo: 1,5 |
Não | 1 |
| Temperatura | Número | Temperatura de amostragem para o modelo, limitada a [0,6, 1,2]. O padrão é 0,8. | Não | |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, none, requiredouespecificar uma função. |
Não | |
| Ferramentas | matriz de OpenAI.RealtimeSessionCreateRequestTools | Ferramentas (funções) disponíveis para o modelo. | Não | |
| rastreamento | cadeia de caracteres ou objeto | Opções de configuração para rastreamento. Defina como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | |
| Truncamento | OpenAI.RealtimeTruncation | Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo. |
Não | |
| turn_detection | OpenAI.RealtimeSessionCreateRequestTurnDetection | Não | ||
| └─ prefix_padding_ms | inteiro | Não | ||
| └─ duração_do_silêncio_ms | inteiro | Não | ||
| └─ limite | Número | Não | ||
| └─ tipo | cadeia | Não | ||
| tipo | enumeração | Valores possíveis: realtime |
Sim | |
| Voz | OpenAI.VoiceIdsShared | Não |
OpenAI.RealtimeSessionCreateRequestClientSecret
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_at | inteiro | Sim | ||
| Valor | cadeia | Sim |
OpenAI.RealtimeSessionCreateRequestGA
Configuração do objeto de sessão em tempo real.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Áudio | OpenAI.RealtimeSessionCreateRequestGAAudio | Não | ||
| └─ entrada | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Não | ||
| └─ saída | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Não | ||
| Incluem | matriz de cadeia de caracteres | Campos adicionais a serem incluídos nas saídas do servidor.item.input_audio_transcription.logprobs: inclua logprobs para transcrição de áudio de entrada. |
Não | |
| Instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) são anexadas a chamadas de modelo. Esse campo permite que o cliente guie o modelo sobre as respostas desejadas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta( por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de boas respostas") e sobre o comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção em sua voz", "rir com frequência"). Não há garantia de que as instruções sejam seguidas pelo modelo, mas fornecem diretrizes para o modelo sobre o comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se esse campo não estiver definido e estiverem visíveis no session.created evento no início da sessão. |
Não | |
| max_output_tokens | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| modelo | cadeia | O modelo em tempo real usado para esta sessão. | Não | |
| output_modalities | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Ele usa como padrão, ["audio"]indicandoque o modelo responderá com áudio mais uma transcrição. ["text"] pode ser usado para fazero modelo responde somente com texto. Não é possível solicitar ambos text e audio ao mesmo tempo. |
Não | ['audio'] |
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| tool_choice | OpenAI.ToolChoiceOptions ou OpenAI.ToolChoiceFunction ou OpenAI.ToolChoiceMCP | Como o modelo escolhe as ferramentas. Fornecer um dos modos de cadeia de caracteres ou forçar um específico ferramenta function/MCP. |
Não | |
| Ferramentas | matriz de OpenAI.RealtimeFunctionTool ou OpenAI.MCPTool | Ferramentas disponíveis para o modelo. | Não | |
| rastreamento | string ou OpenAI.RealtimeSessionCreateRequestGATracing ou null | "" Definido como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | |
| Truncamento | OpenAI.RealtimeTruncation | Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo. |
Não | |
| tipo | enumeração | O tipo de sessão a ser criada. Sempre realtime para a API em tempo real.Valores possíveis: realtime |
Sim |
OpenAI.RealtimeSessionCreateRequestGAAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | OpenAI.RealtimeSessionCreateRequestGAAudioInput | Não | ||
| saída | OpenAI.RealtimeSessionCreateRequestGAAudioOutput | Não |
OpenAI.RealtimeSessionCreateRequestGAAudioInput
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | Não | ||
| noise_reduction | OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction | Não | ||
| transcrição | OpenAI.AudioTranscription | Não | ||
| turn_detection | OpenAI.RealtimeTurnDetection | Não |
OpenAI.RealtimeSessionCreateRequestGAAudioInputNoiseReduction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.NoiseReductionType | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência. |
Não |
OpenAI.RealtimeSessionCreateRequestGAAudioOutput
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | Não | ||
| Velocidade | Número | Restrições: min: 0,25, máximo: 1,5 | Não | 1 |
| Voz | OpenAI.VoiceIdsShared | Não |
OpenAI.RealtimeSessionCreateRequestGATracing
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| group_id | cadeia | Não | ||
| metadados | objeto | Não | ||
| workflow_name | cadeia | Não |
OpenAI.RealtimeSessionCreateRequestInputAudioTranscription
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| modelo | cadeia | Não |
OpenAI.RealtimeSessionCreateRequestTools
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Não | ||
| Nome | cadeia | Não | ||
| Parâmetros | OpenAI.RealtimeSessionCreateRequestToolsParameters | Não | ||
| tipo | enumeração | Valores possíveis: function |
Não |
OpenAI.RealtimeSessionCreateRequestToolsParameters
Tipo: objeto
OpenAI.RealtimeSessionCreateRequestTurnDetection
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| prefix_padding_ms | inteiro | Não | ||
| silence_duration_ms | inteiro | Não | ||
| limite | Número | Não | ||
| tipo | cadeia | Não |
OpenAI.RealtimeSessionCreateRequestUnion
Discriminador para OpenAI.RealtimeSessionCreateRequestUnion
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateRequest |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateRequest |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.RealtimeSessionCreateRequestUnionType | Sim |
OpenAI.RealtimeSessionCreateRequestUnionType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | realtimetranscription |
OpenAI.RealtimeSessionCreateResponse
Um objeto de configuração de sessão em tempo real.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Áudio | OpenAI.RealtimeSessionCreateResponseAudio | Não | ||
| └─ entrada | OpenAI.RealtimeSessionCreateResponseAudioInput | Não | ||
| └─ saída | OpenAI.RealtimeSessionCreateResponseAudioOutput | Não | ||
| expires_at | inteiro | Carimbo de data/hora de expiração para a sessão, em segundos desde a época. | Não | |
| Id | cadeia | Identificador exclusivo para a sessão semelhante sess_1234567890abcdefa . |
Não | |
| Incluem | matriz de cadeia de caracteres | Campos adicionais a serem incluídos nas saídas do servidor. - item.input_audio_transcription.logprobs: inclua logprobs para transcrição de áudio de entrada. |
Não | |
| Instruções | cadeia | As instruções padrão do sistema (ou seja, mensagem do sistema) acrescentadas ao modelo Chamadas. Esse campo permite que o cliente guie o modelo no desejado Respostas. O modelo pode ser instruído sobre o conteúdo e o formato da resposta, (por exemplo, "ser extremamente sucinto", "agir amigável", "aqui estão exemplos de bom respostas") e no comportamento de áudio (por exemplo, "falar rapidamente", "injetar emoção" em sua voz", "rir com frequência"). As instruções não são garantidas a ser seguido pelo modelo, mas eles fornecem diretrizes para o modelo no comportamento desejado. Observe que o servidor define instruções padrão que serão usadas se isso o campo não está definido e está visível no session.created evento noinício da sessão. |
Não | |
| max_output_tokens | inteiro (consulte modelos válidos abaixo) | Número máximo de tokens de saída para uma única resposta de assistente, inclusive de chamadas de ferramenta. Fornecer um inteiro entre 1 e 4096 para limitar tokens de saída ou inf para o máximo de tokens disponíveis para umdeterminado modelo. O padrão é inf. |
Não | |
| modelo | cadeia | O modelo em tempo real usado para esta sessão. | Não | |
| objeto | cadeia | O tipo de objeto. Sempre realtime.session. |
Não | |
| output_modalities | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina isso como ["text"]. |
Não | |
| tool_choice | cadeia | Como o modelo escolhe as ferramentas. As opções são auto, none, requiredouespecificar uma função. |
Não | |
| Ferramentas | matriz de OpenAI.RealtimeFunctionTool | Ferramentas (funções) disponíveis para o modelo. | Não | |
| rastreamento | cadeia de caracteres ou objeto | Opções de configuração para rastreamento. Defina como nulo para desabilitar o rastreamento. Quando O rastreamento está habilitado para uma sessão, a configuração não pode ser modificada. auto criará um rastreamento para a sessão com valores padrão para onome do fluxo de trabalho, ID do grupo e metadados. |
Não | |
| turn_detection | OpenAI.RealtimeSessionCreateResponseTurnDetection | Não | ||
| └─ prefix_padding_ms | inteiro | Não | ||
| └─ duração_do_silêncio_ms | inteiro | Não | ||
| └─ limite | Número | Não | ||
| └─ tipo | cadeia | Não | ||
| tipo | enumeração | Valores possíveis: realtime |
Sim |
OpenAI.RealtimeSessionCreateResponseAudio
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | OpenAI.RealtimeSessionCreateResponseAudioInput | Não | ||
| saída | OpenAI.RealtimeSessionCreateResponseAudioOutput | Não |
OpenAI.RealtimeSessionCreateResponseAudioInput
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | Não | ||
| noise_reduction | OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction | Não | ||
| transcrição | OpenAI.AudioTranscription | Não | ||
| turn_detection | OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection | Não |
OpenAI.RealtimeSessionCreateResponseAudioInputNoiseReduction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.NoiseReductionType | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência. |
Não |
OpenAI.RealtimeSessionCreateResponseAudioInputTurnDetection
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| prefix_padding_ms | inteiro | Não | ||
| silence_duration_ms | inteiro | Não | ||
| limite | Número | Não | ||
| tipo | cadeia | Não |
OpenAI.RealtimeSessionCreateResponseAudioOutput
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | OpenAI.RealtimeAudioFormats | Não | ||
| Velocidade | Número | Não | ||
| Voz | OpenAI.VoiceIdsShared | Não |
OpenAI.RealtimeSessionCreateResponseTurnDetection
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| prefix_padding_ms | inteiro | Não | ||
| silence_duration_ms | inteiro | Não | ||
| limite | Número | Não | ||
| tipo | cadeia | Não |
OpenAI.RealtimeSessionCreateResponseUnion
Discriminador para OpenAI.RealtimeSessionCreateResponseUnion
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
realtime |
OpenAI.RealtimeSessionCreateResponse |
transcription |
OpenAI.RealtimeTranscriptionSessionCreateResponse |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.RealtimeSessionCreateResponseUnionType | Sim |
OpenAI.RealtimeSessionCreateResponseUnionType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | realtimetranscription |
OpenAI.RealtimeTranscriptionSessionCreateRequest
Configuração do objeto de sessão de transcrição em tempo real.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Incluem | matriz de cadeia de caracteres | O conjunto de itens a serem incluídos na transcrição. Os itens disponíveis atuais são:item.input_audio_transcription.logprobs |
Não | |
| input_audio_format | enumeração | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw.Para pcm16, o áudio de entrada deve ser PCM de 16 bits a uma taxa de exemplo de 24 kHz,canal único (mono) e ordem de bytes little-endian. Valores possíveis: pcm16, , g711_ulawg711_alaw |
Não | |
| input_audio_noise_reduction | OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction | Não | ||
| └─ tipo | OpenAI.NoiseReductionType | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência. |
Não | |
| input_audio_transcription | OpenAI.AudioTranscription | Não | ||
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecendo o idioma de entrada em Formato ISO-639-1 (por exemplo en)melhorará a precisão e a latência. |
Não | |
| └─ modelo | cadeia | O modelo a ser usado para transcrição. As opções atuais são whisper-1, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15e gpt-4o-transcribegpt-4o-transcribe-diarize. Use gpt-4o-transcribe-diarize quando precisar de diarização com rótulos de alto-falante. |
Não | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um áudio anterior Segmento. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos (excluindo gpt-4o-transcribe-diarize), o prompt é uma cadeia de caracteres de texto livre, por exemplo, "esperar palavras relacionadas à tecnologia". |
Não | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection | Não | ||
| └─ prefix_padding_ms | inteiro | Não | ||
| └─ duração_do_silêncio_ms | inteiro | Não | ||
| └─ limite | Número | Não | ||
| └─ tipo | enumeração | Valores possíveis: server_vad |
Não | |
| tipo | enumeração | Valores possíveis: transcription |
Sim |
OpenAI.RealtimeTranscriptionSessionCreateRequestInputAudioNoiseReduction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.NoiseReductionType | Tipo de redução de ruído.
near_field é para microfones de fala próxima, como fones de ouvido, far_field é para microfones de campo distante, como laptop ou microfones de sala de conferência. |
Não |
OpenAI.RealtimeTranscriptionSessionCreateRequestTurnDetection
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| prefix_padding_ms | inteiro | Não | ||
| silence_duration_ms | inteiro | Não | ||
| limite | Número | Não | ||
| tipo | enumeração | Valores possíveis: server_vad |
Não |
OpenAI.RealtimeTranscriptionSessionCreateResponse
Uma nova configuração de sessão de transcrição em tempo real. Quando uma sessão é criada no servidor por meio da API REST, o objeto de sessão também contém uma chave efêmera. O TTL padrão para chaves é de 10 minutos. Essa propriedade não está presente quando uma sessão é atualizada por meio da API WebSocket.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| client_secret | OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret | Sim | ||
| └─ data_de_expiração | inteiro | Sim | ||
| └─ valor | cadeia | Sim | ||
| input_audio_format | cadeia | O formato do áudio de entrada. As opções são pcm16, g711_ulawou g711_alaw. |
Não | |
| input_audio_transcription | OpenAI.AudioTranscription | Não | ||
| └─ idioma | cadeia | O idioma do áudio de entrada. Fornecendo o idioma de entrada em Formato ISO-639-1 (por exemplo en)melhorará a precisão e a latência. |
Não | |
| └─ modelo | cadeia | O modelo a ser usado para transcrição. As opções atuais são whisper-1, gpt-4o-mini-transcribe, , gpt-4o-mini-transcribe-2025-12-15e gpt-4o-transcribegpt-4o-transcribe-diarize. Use gpt-4o-transcribe-diarize quando precisar de diarização com rótulos de alto-falante. |
Não | |
| └─ comando | cadeia | Um texto opcional para orientar o estilo do modelo ou continuar um áudio anterior Segmento. Para whisper-1, o prompt é uma lista de palavras-chave.Para gpt-4o-transcribe modelos (excluindo gpt-4o-transcribe-diarize), o prompt é uma cadeia de caracteres de texto livre, por exemplo, "esperar palavras relacionadas à tecnologia". |
Não | |
| Modalidades | matriz de cadeia de caracteres | O conjunto de modalidades com as quais o modelo pode responder. Para desabilitar o áudio, defina isso como ["text"]. |
Não | |
| turn_detection | OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection | Não | ||
| └─ prefix_padding_ms | inteiro | Não | ||
| └─ duração_do_silêncio_ms | inteiro | Não | ||
| └─ limite | Número | Não | ||
| └─ tipo | cadeia | Não | ||
| tipo | enumeração | Valores possíveis: transcription |
Sim |
OpenAI.RealtimeTranscriptionSessionCreateResponseClientSecret
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_at | inteiro | Sim | ||
| Valor | cadeia | Sim |
OpenAI.RealtimeTranscriptionSessionCreateResponseTurnDetection
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| prefix_padding_ms | inteiro | Não | ||
| silence_duration_ms | inteiro | Não | ||
| limite | Número | Não | ||
| tipo | cadeia | Não |
OpenAI.RealtimeTruncation
Quando o número de tokens em uma conversa exceder o limite de token de entrada do modelo, a conversa será truncada, o que significa que as mensagens (começando da mais antiga) não serão incluídas no contexto do modelo. Um modelo de contexto de 32k com 4.096 tokens de saída máximos só pode incluir 28.224 tokens no contexto antes da ocorrência de truncamento. Os clientes podem configurar o comportamento de truncamento para truncar com um limite de token máximo mais baixo, que é uma maneira eficaz de controlar o uso e o custo do token. O truncamento reduzirá o número de tokens armazenados em cache na próxima vez (a rebentação do cache), uma vez que as mensagens são descartadas do início do contexto. No entanto, os clientes também podem configurar o truncamento para reter mensagens até uma fração do tamanho máximo do contexto, o que reduzirá a necessidade de truncamentos futuros e, portanto, melhorará a taxa de cache. O truncamento pode ser totalmente desabilitado, o que significa que o servidor nunca será truncado, mas retornará um erro se a conversa exceder o limite de token de entrada do modelo.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | autodisabled |
OpenAI.RealtimeTurnDetection
Discriminador para OpenAI.RealtimeTurnDetection
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.RealtimeTurnDetectionType | Sim |
OpenAI.RealtimeTurnDetectionType
Tipo: cadeia de caracteres
OpenAI.Reasoning
somente modelos gpt-5 e série o Opções de configuração para modelos de raciocínio.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Esforço | OpenAI.ReasoningEffort | Restringe o esforço no raciocínio para modelos de raciocínio. Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. Reduziro esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados sobre o raciocínio em uma resposta. - gpt-5.1 o padrão é none, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, e nonelowmedium.high Há suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1.- Todos os modelos antes gpt-5.1 do padrão para medium o esforço de raciocínio e não dão suporte none.- O gpt-5-pro modelo usa como padrão o esforço de raciocínio (e só dá high suporte).- xhigh há suporte para todos os modelos após gpt-5.1-codex-max. |
Não | |
| generate_summary | cadeia de caracteres ou nulo | Não | ||
| resumo | cadeia de caracteres ou nulo | Não |
OpenAI.ReasoningEffort
Restringe o esforço no raciocínio para modelos de raciocínio.
Os valores com suporte no momento são none, , minimal, low, medium, highe xhigh. A redução do esforço de raciocínio pode resultar em respostas mais rápidas e menos tokens usados no raciocínio em uma resposta.
-
gpt-5.1o padrão énone, que não executa o raciocínio. Os valores de raciocínio com suporte sãogpt-5.1, enonelowmedium.highHá suporte para chamadas de ferramenta para todos os valores de raciocínio no gpt-5.1. - Todos os modelos antes
gpt-5.1do padrão paramediumo esforço de raciocínio e não dão suportenone. - O
gpt-5-promodelo usa como padrão o esforço de raciocínio (e só dáhighsuporte). -
xhighhá suporte para todos os modelos apósgpt-5.1-codex-max.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | noneminimallowmediumhighxhigh |
OpenAI.ReasoningTextContent
Texto de raciocínio do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | O texto de raciocínio do modelo. | Sim | |
| tipo | enumeração | O tipo do texto de raciocínio. Sempre reasoning_text.Valores possíveis: reasoning_text |
Sim |
OpenAI.RefusalContent
Uma recusa do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Recusa | cadeia | A explicação da recusa do modelo. | Sim | |
| tipo | enumeração | O tipo da recusa. Sempre refusal.Valores possíveis: refusal |
Sim |
OpenAI.Response
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| em segundo plano | booliano ou nulo | Não | ||
| completed_at | cadeia de caracteres ou nulo | Não | ||
| content_filters | matriz de AzureContentFilterForResponsesAPI | Os resultados do filtro de conteúdo da RAI. | Sim | |
| conversa | OpenAI.ConversationReference ou nulo | Não | ||
| created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Sim | |
| erro | OpenAI.ResponseError ou nulo | Sim | ||
| Id | cadeia | Identificador exclusivo para esta resposta. | Sim | |
| incomplete_details | OpenAI.ResponseIncompleteDetails ou null | Sim | ||
| Instruções | cadeia de caracteres ou matriz de OpenAI.InputItem ou nulo | Sim | ||
| max_output_tokens | inteiro ou nulo | Não | ||
| max_tool_calls | inteiro ou nulo | Não | ||
| metadados | OpenAI.Metadata ou nulo | Não | ||
| modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| objeto | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Sim | |
| saída | matriz de OpenAI.OutputItem | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz são dependentesna resposta do modelo. - Em vez de acessar o primeiro item na output matriz esupondo que seja uma assistant mensagem com o conteúdo gerado poro modelo, você pode considerar o uso da output_text propriedade em quecom suporte em SDKs. |
Sim | |
| output_text | cadeia de caracteres ou nulo | Não | ||
| parallel_tool_calls | Boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Sim | Verdade |
| previous_response_id | cadeia de caracteres ou nulo | Não | ||
| solicitação | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| Raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| status | enumeração | O status da geração de resposta. Um de completed, failedin_progress, cancelledou queuedincomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
Não | |
| Temperatura | número ou nulo | Não | ||
| enviar SMS | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| tool_choice | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| Ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| top_logprobs | inteiro ou nulo | Não | ||
| top_p | número ou nulo | Não | ||
| Truncamento | cadeia de caracteres ou nulo | Não | ||
| uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento dos tokens de saída e o total de tokens usados. |
Não | |
| usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não |
OpenAI.ResponseAudioDeltaEvent
Emitido quando há uma resposta de áudio parcial.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | Uma parte dos bytes de áudio de resposta codificados em Base64. | Sim | |
| sequence_number | inteiro | Um número de sequência para esta parte da resposta do fluxo. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.audio.delta.Valores possíveis: response.audio.delta |
Sim |
OpenAI.ResponseAudioTranscriptDeltaEvent
Emitido quando há uma transcrição parcial do áudio.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | A transcrição parcial da resposta de áudio. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.audio.transcript.delta.Valores possíveis: response.audio.transcript.delta |
Sim |
OpenAI.ResponseCodeInterpreterCallCodeDeltaEvent
Emitido quando um snippet de código parcial é transmitido pelo interpretador de código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | O snippet de código parcial que está sendo transmitido pelo interpretador de código. | Sim | |
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretador de código. | Sim | |
| output_index | inteiro | O índice do item de saída na resposta para a qual o código está sendo transmitido. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento, usado para ordenar eventos de streaming. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call_code.delta.Valores possíveis: response.code_interpreter_call_code.delta |
Sim |
OpenAI.ResponseCodeInterpreterCallInProgressEvent
Emitido quando uma chamada de interpretador de código está em andamento.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretador de código. | Sim | |
| output_index | inteiro | O índice do item de saída na resposta para a qual a chamada do interpretador de código está em andamento. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento, usado para ordenar eventos de streaming. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.in_progress.Valores possíveis: response.code_interpreter_call.in_progress |
Sim |
OpenAI.ResponseCodeInterpreterCallInterpretingEvent
Emitido quando o interpretador de código está interpretando ativamente o snippet de código.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta interpretador de código. | Sim | |
| output_index | inteiro | O índice do item de saída na resposta para a qual o interpretador de código está interpretando o código. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento, usado para ordenar eventos de streaming. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.code_interpreter_call.interpreting.Valores possíveis: response.code_interpreter_call.interpreting |
Sim |
OpenAI.ResponseContentPartAddedEvent
Emitido quando uma nova parte de conteúdo é adicionada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo que foi adicionada. | Sim | |
| item_id | cadeia | A ID do item de saída ao qual a parte de conteúdo foi adicionada. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual a parte de conteúdo foi adicionada. | Sim | |
| Parte | OpenAI.OutputContent | Sim | ||
| └─ tipo | OpenAI.OutputContentType | Sim | ||
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.content_part.added.Valores possíveis: response.content_part.added |
Sim |
OpenAI.ResponseCreatedEvent
Um evento emitido quando uma resposta é criada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Resposta | OpenAI.Response | Sim | ||
| └─ plano de fundo | booliano ou nulo | Não | ||
| └─ completed_at | cadeia de caracteres ou nulo | Não | ||
| └─ content_filters | matriz de AzureContentFilterForResponsesAPI | Os resultados do filtro de conteúdo da RAI. | Sim | |
| └─ conversa | OpenAI.ConversationReference ou nulo | Não | ||
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Sim | |
| └─ erro | OpenAI.ResponseError ou nulo | Sim | ||
| └─ id | cadeia | Identificador exclusivo para esta resposta. | Sim | |
| └─ detalhes_incompletos | OpenAI.ResponseIncompleteDetails ou null | Sim | ||
| └─ instruções | cadeia de caracteres ou matriz de OpenAI.InputItem ou nulo | Sim | ||
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro ou nulo | Não | ||
| └─ max_tool_calls | inteiro ou nulo | Não | ||
| └─ metadados | OpenAI.Metadata ou nulo | Não | ||
| └─ modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| Objeto └─ | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Sim | |
| └─ saída | matriz de OpenAI.OutputItem | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz são dependentesna resposta do modelo. - Em vez de acessar o primeiro item na output matriz esupondo que seja uma assistant mensagem com o conteúdo gerado poro modelo, você pode considerar o uso da output_text propriedade em quecom suporte em SDKs. |
Sim | |
| └─ texto_de_saida | cadeia de caracteres ou nulo | Não | ||
| └─ chamadas_de_ferramenta_em_paralelo | Boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Sim | Verdade |
| └─ ID_de_resposta_anterior | cadeia de caracteres ou nulo | Não | ||
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| └─ prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| └─ raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| └─ safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failedin_progress, cancelledou queuedincomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
Não | |
| └─ temperatura | número ou nulo | Não | 1 | |
| └─ texto | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| └─ ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| └─ top_logprobs | inteiro ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| └─ truncamento | cadeia de caracteres ou nulo | Não | desabilitado | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento dos tokens de saída e o total de tokens usados. |
Não | |
| └─ usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não | |
| sequence_number | inteiro | O número de sequência para este evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.created.Valores possíveis: response.created |
Sim |
OpenAI.ResponseCustomToolCallInputDeltaEvent
Evento que representa um delta (atualização parcial) para a entrada de uma chamada de ferramenta personalizada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | Os dados de entrada incrementais (delta) para a chamada de ferramenta personalizada. | Sim | |
| item_id | cadeia | Identificador exclusivo para o item de API associado a esse evento. | Sim | |
| output_index | inteiro | O índice da saída ao qual esse delta se aplica. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O identificador de tipo de evento. Valores possíveis: response.custom_tool_call_input.delta |
Sim |
OpenAI.ResponseError
Um objeto de erro retornado quando o modelo falha ao gerar uma Resposta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | OpenAI.ResponseErrorCode | O código de erro da resposta. | Sim | |
| mensagem | cadeia | Uma descrição legível pelo humano do erro. | Sim |
OpenAI.ResponseErrorCode
O código de erro da resposta.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | server_errorrate_limit_exceededinvalid_promptvector_store_timeoutinvalid_imageinvalid_image_formatinvalid_base64_imageinvalid_image_urlimage_too_largeimage_too_smallimage_parse_errorimage_content_policy_violationinvalid_image_modeimage_file_too_largeunsupported_image_media_typeempty_image_filefailed_to_download_imageimage_file_not_found |
OpenAI.ResponseErrorEvent
Emitido quando ocorre um erro.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | cadeia de caracteres ou nulo | Sim | ||
| mensagem | cadeia | A mensagem de erro. | Sim | |
| param | cadeia de caracteres ou nulo | Sim | ||
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre error.Valores possíveis: error |
Sim |
OpenAI.ResponseFailedEvent
Um evento emitido quando uma resposta falha.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Resposta | OpenAI.Response | Sim | ||
| └─ plano de fundo | booliano ou nulo | Não | ||
| └─ completed_at | cadeia de caracteres ou nulo | Não | ||
| └─ content_filters | matriz de AzureContentFilterForResponsesAPI | Os resultados do filtro de conteúdo da RAI. | Sim | |
| └─ conversa | OpenAI.ConversationReference ou nulo | Não | ||
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Sim | |
| └─ erro | OpenAI.ResponseError ou nulo | Sim | ||
| └─ id | cadeia | Identificador exclusivo para esta resposta. | Sim | |
| └─ detalhes_incompletos | OpenAI.ResponseIncompleteDetails ou null | Sim | ||
| └─ instruções | cadeia de caracteres ou matriz de OpenAI.InputItem ou nulo | Sim | ||
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro ou nulo | Não | ||
| └─ max_tool_calls | inteiro ou nulo | Não | ||
| └─ metadados | OpenAI.Metadata ou nulo | Não | ||
| └─ modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| Objeto └─ | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Sim | |
| └─ saída | matriz de OpenAI.OutputItem | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz são dependentesna resposta do modelo. - Em vez de acessar o primeiro item na output matriz esupondo que seja uma assistant mensagem com o conteúdo gerado poro modelo, você pode considerar o uso da output_text propriedade em quecom suporte em SDKs. |
Sim | |
| └─ texto_de_saida | cadeia de caracteres ou nulo | Não | ||
| └─ chamadas_de_ferramenta_em_paralelo | Boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Sim | Verdade |
| └─ ID_de_resposta_anterior | cadeia de caracteres ou nulo | Não | ||
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| └─ prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| └─ raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| └─ safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failedin_progress, cancelledou queuedincomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
Não | |
| └─ temperatura | número ou nulo | Não | 1 | |
| └─ texto | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| └─ ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| └─ top_logprobs | inteiro ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| └─ truncamento | cadeia de caracteres ou nulo | Não | desabilitado | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento dos tokens de saída e o total de tokens usados. |
Não | |
| └─ usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.failed.Valores possíveis: response.failed |
Sim |
OpenAI.ResponseFileSearchCallInProgressEvent
Emitido quando uma chamada de pesquisa de arquivo é iniciada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. | Sim | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo é iniciada. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.file_search_call.in_progress.Valores possíveis: response.file_search_call.in_progress |
Sim |
OpenAI.ResponseFileSearchCallSearchingEvent
Emitido quando uma pesquisa de arquivo está pesquisando no momento.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de saída que a chamada de pesquisa de arquivo é iniciada. | Sim | |
| output_index | inteiro | O índice do item de saída que a chamada de pesquisa de arquivo está pesquisando. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.file_search_call.searching.Valores possíveis: response.file_search_call.searching |
Sim |
OpenAI.ResponseFormatJsonObject
Formato de resposta de objeto JSON. Um método mais antigo de geração de respostas JSON.
O uso json_schema é recomendado para modelos que dão suporte a ele. Observe que o modelo não gerará JSON sem um sistema ou mensagem de usuário instruindo-o a fazê-lo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_object.Valores possíveis: json_object |
Sim |
OpenAI.ResponseFormatJsonSchema
Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre saídas estruturadas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| json_schema | OpenAI.ResponseFormatJsonSchemaJsonSchema | Sim | ||
| └─ descrição | cadeia | Não | ||
| └─ nome | cadeia | Sim | ||
| └─ esquema | OpenAI.ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui. |
Não | |
| └─ estrito | booliano ou nulo | Não | ||
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Sim |
OpenAI.ResponseFormatJsonSchemaJsonSchema
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Não | ||
| Nome | cadeia | Sim | ||
| esquema | OpenAI.ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui. |
Não | |
| Estrita | booliano ou nulo | Não |
OpenAI.ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui.
Tipo: objeto
OpenAI.ResponseFormatText
Formato de resposta padrão. Usado para gerar respostas de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre text.Valores possíveis: text |
Sim |
OpenAI.ResponseFunctionCallArgumentsDeltaEvent
Emitido quando há um delta de argumentos parciais de chamada de função.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | O delta de argumentos de chamada de função que é adicionado. | Sim | |
| item_id | cadeia | A ID do item de saída ao qual o delta de argumentos de chamada de função é adicionado. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual o delta de argumentos de chamada de função é adicionado. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.function_call_arguments.delta.Valores possíveis: response.function_call_arguments.delta |
Sim |
OpenAI.ResponseImageGenCallGeneratingEvent
Emitido quando uma chamada de ferramenta de geração de imagem está gerando ativamente uma imagem (estado intermediário).
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Sim | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Sim | |
| sequence_number | inteiro | O número de sequência do item de geração de imagem que está sendo processado. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre "response.image_generation_call.generating". Valores possíveis: response.image_generation_call.generating |
Sim |
OpenAI.ResponseImageGenCallInProgressEvent
Emitido quando uma chamada de ferramenta de geração de imagem está em andamento.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Sim | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Sim | |
| sequence_number | inteiro | O número de sequência do item de geração de imagem que está sendo processado. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.image_generation_call.in_progress'. Valores possíveis: response.image_generation_call.in_progress |
Sim |
OpenAI.ResponseImageGenCallPartialImageEvent
Emitido quando uma imagem parcial está disponível durante o streaming de geração de imagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de geração de imagem que está sendo processado. | Sim | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Sim | |
| partial_image_b64 | cadeia | Dados de imagem parciais codificados em Base64, adequados para renderização como uma imagem. | Sim | |
| partial_image_index | inteiro | Índice baseado em 0 para a imagem parcial (o back-end é baseado em 1, mas é baseado em 0 para o usuário). | Sim | |
| sequence_number | inteiro | O número de sequência do item de geração de imagem que está sendo processado. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.image_generation_call.partial_image'. Valores possíveis: response.image_generation_call.partial_image |
Sim |
OpenAI.ResponseInProgressEvent
Emitido quando a resposta está em andamento.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Resposta | OpenAI.Response | Sim | ||
| └─ plano de fundo | booliano ou nulo | Não | ||
| └─ completed_at | cadeia de caracteres ou nulo | Não | ||
| └─ content_filters | matriz de AzureContentFilterForResponsesAPI | Os resultados do filtro de conteúdo da RAI. | Sim | |
| └─ conversa | OpenAI.ConversationReference ou nulo | Não | ||
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Sim | |
| └─ erro | OpenAI.ResponseError ou nulo | Sim | ||
| └─ id | cadeia | Identificador exclusivo para esta resposta. | Sim | |
| └─ detalhes_incompletos | OpenAI.ResponseIncompleteDetails ou null | Sim | ||
| └─ instruções | cadeia de caracteres ou matriz de OpenAI.InputItem ou nulo | Sim | ||
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro ou nulo | Não | ||
| └─ max_tool_calls | inteiro ou nulo | Não | ||
| └─ metadados | OpenAI.Metadata ou nulo | Não | ||
| └─ modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| Objeto └─ | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Sim | |
| └─ saída | matriz de OpenAI.OutputItem | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz são dependentesna resposta do modelo. - Em vez de acessar o primeiro item na output matriz esupondo que seja uma assistant mensagem com o conteúdo gerado poro modelo, você pode considerar o uso da output_text propriedade em quecom suporte em SDKs. |
Sim | |
| └─ texto_de_saida | cadeia de caracteres ou nulo | Não | ||
| └─ chamadas_de_ferramenta_em_paralelo | Boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Sim | Verdade |
| └─ ID_de_resposta_anterior | cadeia de caracteres ou nulo | Não | ||
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| └─ prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| └─ raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| └─ safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failedin_progress, cancelledou queuedincomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
Não | |
| └─ temperatura | número ou nulo | Não | 1 | |
| └─ texto | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| └─ ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| └─ top_logprobs | inteiro ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| └─ truncamento | cadeia de caracteres ou nulo | Não | desabilitado | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento dos tokens de saída e o total de tokens usados. |
Não | |
| └─ usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.in_progress.Valores possíveis: response.in_progress |
Sim |
OpenAI.ResponseIncompleteDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Razão | enumeração | Valores possíveis: max_output_tokens, content_filter |
Não |
OpenAI.ResponseIncompleteEvent
Um evento emitido quando uma resposta é concluída como incompleta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Resposta | OpenAI.Response | Sim | ||
| └─ plano de fundo | booliano ou nulo | Não | ||
| └─ completed_at | cadeia de caracteres ou nulo | Não | ||
| └─ content_filters | matriz de AzureContentFilterForResponsesAPI | Os resultados do filtro de conteúdo da RAI. | Sim | |
| └─ conversa | OpenAI.ConversationReference ou nulo | Não | ||
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Sim | |
| └─ erro | OpenAI.ResponseError ou nulo | Sim | ||
| └─ id | cadeia | Identificador exclusivo para esta resposta. | Sim | |
| └─ detalhes_incompletos | OpenAI.ResponseIncompleteDetails ou null | Sim | ||
| └─ instruções | cadeia de caracteres ou matriz de OpenAI.InputItem ou nulo | Sim | ||
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro ou nulo | Não | ||
| └─ max_tool_calls | inteiro ou nulo | Não | ||
| └─ metadados | OpenAI.Metadata ou nulo | Não | ||
| └─ modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| Objeto └─ | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Sim | |
| └─ saída | matriz de OpenAI.OutputItem | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz são dependentesna resposta do modelo. - Em vez de acessar o primeiro item na output matriz esupondo que seja uma assistant mensagem com o conteúdo gerado poro modelo, você pode considerar o uso da output_text propriedade em quecom suporte em SDKs. |
Sim | |
| └─ texto_de_saida | cadeia de caracteres ou nulo | Não | ||
| └─ chamadas_de_ferramenta_em_paralelo | Boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Sim | Verdade |
| └─ ID_de_resposta_anterior | cadeia de caracteres ou nulo | Não | ||
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| └─ prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| └─ raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| └─ safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failedin_progress, cancelledou queuedincomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
Não | |
| └─ temperatura | número ou nulo | Não | 1 | |
| └─ texto | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| └─ ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| └─ top_logprobs | inteiro ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| └─ truncamento | cadeia de caracteres ou nulo | Não | desabilitado | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento dos tokens de saída e o total de tokens usados. |
Não | |
| └─ usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.incomplete.Valores possíveis: response.incomplete |
Sim |
OpenAI.ResponseItemList
Uma lista de itens de resposta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.ItemResource | Uma lista de itens usados para gerar essa resposta. | Sim | |
| first_id | cadeia | A ID do primeiro item da lista. | Sim | |
| has_more | Boolean | Se há mais itens disponíveis. | Sim | |
| last_id | cadeia | A ID do último item da lista. | Sim | |
| objeto | enumeração | O tipo de objeto retornado deve ser list.Valores possíveis: list |
Sim |
OpenAI.ResponseLogProb
Um logprob é a probabilidade logarítmica que o modelo atribui à produção de um token específico em uma determinada posição na sequência. Valores de logprob menos negativos (superiores) indicam maior confiança do modelo nessa opção de token.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| logprob | Número | A probabilidade de log desse token. | Sim | |
| símbolo | cadeia | Um possível token de texto. | Sim | |
| top_logprobs | matriz de OpenAI.ResponseLogProbTopLogprobs | A probabilidade de log dos 20 tokens mais prováveis. | Não |
OpenAI.ResponseLogProbTopLogprobs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| logprob | Número | Não | ||
| símbolo | cadeia | Não |
OpenAI.ResponseMCPCallArgumentsDeltaEvent
Emitido quando há um delta (atualização parcial) para os argumentos de uma chamada de ferramenta MCP.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | Uma cadeia de caracteres JSON que contém a atualização parcial para os argumentos da chamada da ferramenta MCP. | Sim | |
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. | Sim | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre "response.mcp_call_arguments.delta". Valores possíveis: response.mcp_call_arguments.delta |
Sim |
OpenAI.ResponseMCPCallFailedEvent
Emitido quando uma chamada de ferramenta MCP falha.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de chamada da ferramenta MCP que falhou. | Sim | |
| output_index | inteiro | O índice do item de saída que falhou. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.mcp_call.falhou'. Valores possíveis: response.mcp_call.failed |
Sim |
OpenAI.ResponseMCPCallInProgressEvent
Emitido quando uma chamada de ferramenta MCP está em andamento.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | O identificador exclusivo do item de chamada da ferramenta MCP que está sendo processado. | Sim | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.mcp_call.in_progress'. Valores possíveis: response.mcp_call.in_progress |
Sim |
OpenAI.ResponseMCPListToolsFailedEvent
Emitido quando a tentativa de listar as ferramentas MCP disponíveis falhou.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de chamada da ferramenta MCP que falhou. | Sim | |
| output_index | inteiro | O índice do item de saída que falhou. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.mcp_list_tools.falhou'. Valores possíveis: response.mcp_list_tools.failed |
Sim |
OpenAI.ResponseMCPListToolsInProgressEvent
Emitido quando o sistema está no processo de recuperação da lista de ferramentas MCP disponíveis.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | A ID do item de chamada da ferramenta MCP que está sendo processado. | Sim | |
| output_index | inteiro | O índice do item de saída que está sendo processado. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.mcp_list_tools.in_progress'. Valores possíveis: response.mcp_list_tools.in_progress |
Sim |
OpenAI.ResponseModalities
Tipos de saída que você gostaria que o modelo gerasse.
A maioria dos modelos é capaz de gerar texto, que é o padrão:
["text"] O gpt-4o-audio-preview modelo também pode ser usado para gerar áudio. Para solicitar que esse modelo gere respostas de texto e áudio, você pode usar: ["text", "audio"]
Esse esquema aceita um dos seguintes tipos:
- Matriz
- Null
OpenAI.ResponseOutputItemAddedEvent
Emitido quando um novo item de saída é adicionado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item | OpenAI.OutputItem | Sim | ||
| └─ tipo | OpenAI.OutputItemType | Sim | ||
| output_index | inteiro | O índice do item de saída que foi adicionado. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.output_item.added.Valores possíveis: response.output_item.added |
Sim |
OpenAI.ResponseOutputTextAnnotationAddedEvent
Emitido quando uma anotação é adicionada ao conteúdo de texto de saída.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| anotação | OpenAI.Annotation | Uma anotação que se aplica a um intervalo de texto de saída. | Sim | |
| └─ tipo | OpenAI.AnnotationType | Sim | ||
| annotation_index | inteiro | O índice da anotação na parte de conteúdo. | Sim | |
| content_index | inteiro | O índice da parte de conteúdo dentro do item de saída. | Sim | |
| item_id | cadeia | O identificador exclusivo do item ao qual a anotação está sendo adicionada. | Sim | |
| output_index | inteiro | O índice do item de saída na matriz de saída da resposta. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.output_text.annotation.added'. Valores possíveis: response.output_text.annotation.added |
Sim |
OpenAI.ResponsePromptVariables
Mapa opcional de valores a serem substituídos por variáveis em seu prompt. Os valores de substituição podem ser cadeias de caracteres ou outros tipos de entrada de resposta, como imagens ou arquivos.
Tipo: objeto
OpenAI.ResponseQueuedEvent
Emitido quando uma resposta é enfileirada e aguardando para ser processada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Resposta | OpenAI.Response | Sim | ||
| └─ plano de fundo | booliano ou nulo | Não | ||
| └─ completed_at | cadeia de caracteres ou nulo | Não | ||
| └─ content_filters | matriz de AzureContentFilterForResponsesAPI | Os resultados do filtro de conteúdo da RAI. | Sim | |
| └─ conversa | OpenAI.ConversationReference ou nulo | Não | ||
| └─ created_at | inteiro | Unix timestamp (em segundos) de quando esta Resposta foi criada. | Sim | |
| └─ erro | OpenAI.ResponseError ou nulo | Sim | ||
| └─ id | cadeia | Identificador exclusivo para esta resposta. | Sim | |
| └─ detalhes_incompletos | OpenAI.ResponseIncompleteDetails ou null | Sim | ||
| └─ instruções | cadeia de caracteres ou matriz de OpenAI.InputItem ou nulo | Sim | ||
| └─ max_output_tokens (número máximo de tokens de saída) | inteiro ou nulo | Não | ||
| └─ max_tool_calls | inteiro ou nulo | Não | ||
| └─ metadados | OpenAI.Metadata ou nulo | Não | ||
| └─ modelo | cadeia | ID do modelo usada para gerar a resposta, como gpt-4o ou o3. OpenAIoferece uma ampla gama de modelos com diferentes funcionalidades, desempenho características e pontos de preço. Consulte o guia do modelo para navegar e comparar os modelos disponíveis. |
Não | |
| Objeto └─ | enumeração | O tipo de objeto desse recurso – sempre definido como response.Valores possíveis: response |
Sim | |
| └─ saída | matriz de OpenAI.OutputItem | Uma matriz de itens de conteúdo gerados pelo modelo. - O comprimento e a ordem dos itens na output matriz são dependentesna resposta do modelo. - Em vez de acessar o primeiro item na output matriz esupondo que seja uma assistant mensagem com o conteúdo gerado poro modelo, você pode considerar o uso da output_text propriedade em quecom suporte em SDKs. |
Sim | |
| └─ texto_de_saida | cadeia de caracteres ou nulo | Não | ||
| └─ chamadas_de_ferramenta_em_paralelo | Boolean | Se deseja permitir que o modelo execute chamadas de ferramenta em paralelo. | Sim | Verdade |
| └─ ID_de_resposta_anterior | cadeia de caracteres ou nulo | Não | ||
| └─ comando | OpenAI.Prompt | Referência a um modelo de prompt e suas variáveis. Saiba mais. |
Não | |
| └─ prompt_cache_key | cadeia | Usado pelo OpenAI para armazenar em cache respostas para solicitações semelhantes para otimizar as taxas de ocorrência do cache. Substitui o user campo.
Saiba mais. |
Não | |
| └─ prompt_cache_retention | cadeia de caracteres ou nulo | Não | ||
| └─ raciocínio | OpenAI.Reasoning ou nulo | Não | ||
| └─ safety_identifier | cadeia | Um identificador estável usado para ajudar a detectar usuários do aplicativo que podem estar violando as políticas de uso do OpenAI. As IDs devem ser uma cadeia de caracteres que identifique exclusivamente cada usuário. Recomendamos o hash de seu nome de usuário ou endereço de email, a fim de evitar enviar-nos qualquer informação de identificação. Saiba mais. |
Não | |
| └─ estado | enumeração | O status da geração de resposta. Um de completed, failedin_progress, cancelledou queuedincomplete.Valores possíveis: completed, , failed, in_progress, cancelled, , queuedincomplete |
Não | |
| └─ temperatura | número ou nulo | Não | 1 | |
| └─ texto | OpenAI.ResponseTextParam | Opções de configuração para uma resposta de texto do modelo. Pode ser simples texto ou dados JSON estruturados. Saiba Mais: - Entradas e saídas de texto - Saídas estruturadas |
Não | |
| └─ escolha_de_ferramenta | OpenAI.ToolChoiceParam | Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentaso modelo pode chamar. |
Não | |
| └─ ferramentas | OpenAI.ToolsArray | Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.Damos suporte às seguintes categorias de ferramentas: - Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem o funcionalidades do modelo, como pesquisa na Web ou pesquisa de arquivo. Saiba mais sobre ferramentas internas. - Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre Ferramentas do MCP. - Chamadas de função (ferramentas personalizadas): funções definidas por você, habilitando o modelo para chamar seu próprio código com argumentos fortemente tipado e saídas. Saiba mais sobre chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código. |
Não | |
| └─ top_logprobs | inteiro ou nulo | Não | ||
| └─ top_p | número ou nulo | Não | 1 | |
| └─ truncamento | cadeia de caracteres ou nulo | Não | desabilitado | |
| └─ uso | OpenAI.ResponseUsage | Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, um detalhamento dos tokens de saída e o total de tokens usados. |
Não | |
| └─ usuário | cadeia de caracteres (preterida) | Este campo está sendo substituído por safety_identifier .prompt_cache_key Em vez disso, use prompt_cache_key para manter otimizações de cache.Um identificador estável para os usuários finais. Usado para aumentar as taxas de ocorrência de cache, melhor bucketing solicitações semelhantes e para ajudar o OpenAI a detectar e prevenir abusos. Saiba mais. |
Não | |
| sequence_number | inteiro | O número de sequência para este evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre 'response.enfileirado'. Valores possíveis: response.queued |
Sim |
OpenAI.ResponseReasoningSummaryPartAddedEvent
Emitido quando uma nova parte de resumo de raciocínio é adicionada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | A ID do item à qual essa parte de resumo está associada. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual essa parte de resumo está associada. | Sim | |
| Parte | OpenAI.ResponseReasoningSummaryPartAddedEventPart | Sim | ||
| └─ texto | cadeia | Sim | ||
| └─ tipo | enumeração | Valores possíveis: summary_text |
Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| summary_index | inteiro | O índice da parte de resumo dentro do resumo do raciocínio. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.reasoning_summary_part.added.Valores possíveis: response.reasoning_summary_part.added |
Sim |
OpenAI.ResponseReasoningSummaryPartAddedEventPart
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | Sim | ||
| tipo | enumeração | Valores possíveis: summary_text |
Sim |
OpenAI.ResponseReasoningSummaryTextDeltaEvent
Emitido quando um delta é adicionado a um texto de resumo de raciocínio.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Delta | cadeia | O delta de texto que foi adicionado ao resumo. | Sim | |
| item_id | cadeia | A ID do item ao qual este delta de texto de resumo está associado. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual este delta de texto de resumo está associado. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| summary_index | inteiro | O índice da parte de resumo dentro do resumo do raciocínio. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.reasoning_summary_text.delta.Valores possíveis: response.reasoning_summary_text.delta |
Sim |
OpenAI.ResponseReasoningTextDeltaEvent
Emitido quando um delta é adicionado a um texto de raciocínio.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo de raciocínio ao qual esse delta está associado. | Sim | |
| Delta | cadeia | O delta de texto que foi adicionado ao conteúdo de raciocínio. | Sim | |
| item_id | cadeia | A ID do item ao qual esse delta de texto de raciocínio está associado. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual esse delta de texto de raciocínio está associado. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.reasoning_text.delta.Valores possíveis: response.reasoning_text.delta |
Sim |
OpenAI.ResponseRefusalDeltaEvent
Emitido quando há um texto de recusa parcial.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o texto de recusa é adicionado. | Sim | |
| Delta | cadeia | O texto de recusa que é adicionado. | Sim | |
| item_id | cadeia | A ID do item de saída ao qual o texto de recusa é adicionado. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual o texto de recusa é adicionado. | Sim | |
| sequence_number | inteiro | O número de sequência desse evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.refusal.delta.Valores possíveis: response.refusal.delta |
Sim |
OpenAI.ResponseStreamOptions
Opções para respostas de streaming. Defina isso somente quando você definir stream: true.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| include_obfuscation | Boolean | Quando true, a ofuscação de fluxo será habilitada. Stream obfuscation adds caracteres aleatórios para um obfuscation campo em eventos delta de streaming paranormalize os tamanhos de carga como uma mitigação para determinados ataques de canal lateral. Esses campos de ofuscação são incluídos por padrão, mas adicionam uma pequena quantidade de sobrecarga para o fluxo de dados. Você pode definir include_obfuscation comofalse para otimizar para largura de banda se você confiar nos links de rede entre seu aplicativo e a API OpenAI. |
Não |
OpenAI.ResponseTextDeltaEvent
Emitido quando há um delta de texto adicional.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| content_index | inteiro | O índice da parte de conteúdo à qual o delta de texto foi adicionado. | Sim | |
| Delta | cadeia | O delta de texto que foi adicionado. | Sim | |
| item_id | cadeia | A ID do item de saída ao qual o delta de texto foi adicionado. | Sim | |
| logprobs | matriz de OpenAI.ResponseLogProb | As probabilidades de log dos tokens no delta. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual o delta de texto foi adicionado. | Sim | |
| sequence_number | inteiro | O número de sequência para este evento. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.output_text.delta.Valores possíveis: response.output_text.delta |
Sim |
OpenAI.ResponseTextParam
Opções de configuração para uma resposta de texto do modelo. Pode ser texto sem formatação ou dados JSON estruturados. Saiba Mais:
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Formato | OpenAI.TextResponseFormatConfiguration | Um objeto que especifica o formato que o modelo deve gerar.{ "type": "json_schema" } Configurar habilita saídas estruturadas,que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no O formato padrão não tem { "type": "text" } opções adicionais.*Não recomendado para modelos gpt-4o e mais recentes: Configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, quegarante que a mensagem gerada pelo modelo seja JSON válida. Usando json_schemaé preferencial para modelos que dão suporte a ele. |
Não | |
| detalhamento | OpenAI.Verbosity | Restringe a verbosidade da resposta do modelo. Valores mais baixos resultarão em respostas mais concisas, enquanto valores mais altos resultarão em respostas mais detalhadas. Os valores com suporte no momento são low, mediume high. |
Não |
OpenAI.ResponseUsage
Representa os detalhes de uso do token, incluindo tokens de entrada, tokens de saída, uma divisão de tokens de saída e o total de tokens usados.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| input_tokens | inteiro | O número de tokens de entrada. | Sim | |
| input_tokens_details | OpenAI.ResponseUsageInputTokensDetails | Sim | ||
| └─ tokens em cache | inteiro | Sim | ||
| output_tokens | inteiro | O número de tokens de saída. | Sim | |
| output_tokens_details | OpenAI.ResponseUsageOutputTokensDetails | Sim | ||
| └─ tokens_de_raciocínio | inteiro | Sim | ||
| total_tokens | inteiro | O número total de tokens usados. | Sim |
OpenAI.ResponseUsageInputTokensDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| cached_tokens | inteiro | Sim |
OpenAI.ResponseUsageOutputTokensDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| reasoning_tokens | inteiro | Sim |
OpenAI.ResponseWebSearchCallInProgressEvent
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | ID exclusiva para o item de saída associado à chamada de pesquisa na Web. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual a chamada de pesquisa na Web está associada. | Sim | |
| sequence_number | inteiro | O número de sequência da chamada de pesquisa na Web que está sendo processada. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.web_search_call.in_progress.Valores possíveis: response.web_search_call.in_progress |
Sim |
OpenAI.ResponseWebSearchCallSearchingEvent
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| item_id | cadeia | ID exclusiva para o item de saída associado à chamada de pesquisa na Web. | Sim | |
| output_index | inteiro | O índice do item de saída ao qual a chamada de pesquisa na Web está associada. | Sim | |
| sequence_number | inteiro | O número de sequência da chamada de pesquisa na Web que está sendo processada. | Sim | |
| tipo | enumeração | O tipo do evento. Sempre response.web_search_call.searching.Valores possíveis: response.web_search_call.searching |
Sim |
OpenAI.RunCompletionUsage
Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queuedetc.).
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da execução. | Sim | |
| prompt_tokens | inteiro | Número de tokens de prompt usados ao longo da execução. | Sim | |
| total_tokens | inteiro | Número total de tokens usados (prompt + conclusão). | Sim |
OpenAI.RunGraderRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Série | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | O classificador usado para o trabalho de ajuste fino. | Sim | |
| item | OpenAI.RunGraderRequestItem | Não | ||
| model_sample | cadeia | O exemplo de modelo a ser avaliado. Esse valor será usado para preencher o sample namespace. Consulte o guia para obter mais detalhes.A output_json variável será preenchida se o exemplo de modelo for umcadeia de caracteres JSON válida. |
Sim |
OpenAI.RunGraderRequestItem
Tipo: objeto
OpenAI.RunGraderResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.RunGraderResponseMetadata | Sim | ||
| model_grader_token_usage_per_model | objeto | Sim | ||
| Recompensa | Número | Sim | ||
| sub_rewards | objeto | Sim |
OpenAI.RunGraderResponseMetadata
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Erros | OpenAI.RunGraderResponseMetadataErrors | Sim | ||
| execution_time | Número | Sim | ||
| Nome | cadeia | Sim | ||
| sampled_model_name | cadeia de caracteres ou nulo | Sim | ||
| Pontuações | objeto | Sim | ||
| token_usage | inteiro ou nulo | Sim | ||
| tipo | cadeia | Sim |
OpenAI.RunGraderResponseMetadataErrors
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| formula_parse_error | Boolean | Sim | ||
| invalid_variable_error | Boolean | Sim | ||
| model_grader_parse_error | Boolean | Sim | ||
| model_grader_refusal_error | Boolean | Sim | ||
| model_grader_server_error | Boolean | Sim | ||
| model_grader_server_error_details | cadeia de caracteres ou nulo | Sim | ||
| other_error | Boolean | Sim | ||
| python_grader_runtime_error | Boolean | Sim | ||
| python_grader_runtime_error_details | cadeia de caracteres ou nulo | Sim | ||
| python_grader_server_error | Boolean | Sim | ||
| python_grader_server_error_type | cadeia de caracteres ou nulo | Sim | ||
| sample_parse_error | Boolean | Sim | ||
| truncated_observation_error | Boolean | Sim | ||
| unresponsive_reward_error | Boolean | Sim |
OpenAI.RunObject
Representa uma execução de execução em um thread.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente usada para execução dessa execução. | Sim | |
| cancelled_at | cadeia de caracteres ou nulo | O carimbo de data/hora unix (em segundos) para quando a execução foi cancelada. | Sim | |
| completed_at | cadeia de caracteres ou nulo | O carimbo de data/hora unix (em segundos) para quando a execução foi concluída. | Sim | |
| created_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a execução foi criada. | Sim | |
| expires_at | cadeia de caracteres ou nulo | O carimbo de data/hora unix (em segundos) para quando a execução expirará. | Sim | |
| failed_at | cadeia de caracteres ou nulo | O carimbo de data/hora unix (em segundos) para quando a execução falhou. | Sim | |
| Id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| incomplete_details | OpenAI.RunObjectIncompleteDetails ou null | Detalhes sobre por que a execução está incompleta.
null Será se a execução não estiver incompleta. |
Sim | |
| Instruções | cadeia | As instruções que o assistente usou para esta execução. | Sim | |
| last_error | OpenAI.RunObjectLastError ou nulo | O último erro associado a essa execução. Será null se não houver erros. |
Sim | |
| max_completion_tokens | inteiro ou nulo | O número máximo de tokens de conclusão especificados para terem sido usados ao longo da execução. | Sim | |
| max_prompt_tokens | inteiro ou nulo | O número máximo de tokens de prompt especificados para terem sido usados ao longo da execução. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| modelo | cadeia | O modelo que o assistente usou para esta execução. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre thread.run.Valores possíveis: thread.run |
Sim | |
| parallel_tool_calls | OpenAI.ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Sim | |
| required_action | OpenAI.RunObjectRequiredAction ou null | Detalhes sobre a ação necessária para continuar a execução.
null Será se nenhuma ação for necessária. |
Sim | |
| response_format | OpenAI.AssistantsApiResponseFormatOption | Especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde então gpt-3.5-turbo-1106.Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas que garantem que o modelo corresponda ao esquema JSON fornecido. Saiba mais no A configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante:* ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de token, resultando em uma solicitação de execução longa e aparentemente "paralisada". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Sim | |
| started_at | cadeia de caracteres ou nulo | O carimbo de data/hora unix (em segundos) para quando a execução foi iniciada. | Sim | |
| status | OpenAI.RunStatus | O status da execução, que pode ser queued, , in_progress, requires_action, cancelling, cancelled, , failed, completed, , , incompleteou expired. |
Sim | |
| Temperatura | número ou nulo | A temperatura de amostragem usada para esta execução. Se não for definido, o padrão será 1. | Não | |
| thread_id | cadeia | A ID do thread em que foi executado como parte dessa execução. | Sim | |
| tool_choice | OpenAI.AssistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.required significa que o modelo deve chamar uma ou mais ferramentas antes de responder ao usuário.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Sim | |
| Ferramentas | matriz de OpenAI.AssistantTool | A lista de ferramentas que o assistente usou para essa execução. | Sim | [] |
| top_p | número ou nulo | O valor de amostragem do núcleo usado para esta execução. Se não for definido, o padrão será 1. | Não | |
| truncation_strategy | OpenAI.TruncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Sim | |
| uso | OpenAI.RunCompletionUsage ou nulo | Sim |
OpenAI.RunObjectIncompleteDetails
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Razão | enumeração | Valores possíveis: max_completion_tokens, max_prompt_tokens |
Não |
OpenAI.RunObjectLastError
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | enumeração | Valores possíveis: server_error, , rate_limit_exceededinvalid_prompt |
Sim | |
| mensagem | cadeia | Sim |
OpenAI.RunObjectRequiredAction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| submit_tool_outputs | OpenAI.RunObjectRequiredActionSubmitToolOutputs | Sim | ||
| tipo | enumeração | Valores possíveis: submit_tool_outputs |
Sim |
OpenAI.RunObjectRequiredActionSubmitToolOutputs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tool_calls | matriz de OpenAI.RunToolCallObject | Sim |
OpenAI.RunStatus
O status da execução, que pode ser queued, , in_progress, requires_action, cancelling, cancelled, , failed, completed, , , incompleteou expired.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | queuedin_progressrequires_actioncancellingcancelledfailedcompletedincompleteexpired |
OpenAI.RunStepCompletionUsage
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| completion_tokens | inteiro | Número de tokens de conclusão usados ao longo da etapa de execução. | Sim | |
| prompt_tokens | inteiro | Número de tokens de prompt usados ao longo da etapa de execução. | Sim | |
| total_tokens | inteiro | Número total de tokens usados (prompt + conclusão). | Sim |
OpenAI.RunStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| message_creation | OpenAI.RunStepDetailsMessageCreationObjectMessageCreation | Sim | ||
| tipo | enumeração | Sempre message_creation.Valores possíveis: message_creation |
Sim |
OpenAI.RunStepDetailsMessageCreationObjectMessageCreation
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Message_id | cadeia | Sim |
OpenAI.RunStepDetailsToolCall
Discriminador para OpenAI.RunStepDetailsToolCall
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
code_interpreter |
OpenAI.RunStepDetailsToolCallsCodeObject |
file_search |
OpenAI.RunStepDetailsToolCallsFileSearchObject |
function |
OpenAI.RunStepDetailsToolCallsFunctionObject |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.RunStepDetailsToolCallType | Sim |
OpenAI.RunStepDetailsToolCallType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | code_interpreterfile_searchfunction |
OpenAI.RunStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| code_interpreter | OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter | Sim | ||
| └─ entrada | cadeia | Sim | ||
| └─ saídas | matriz de OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject ou OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Sim | ||
| Id | cadeia | A ID da chamada da ferramenta. | Sim | |
| tipo | enumeração | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta.Valores possíveis: code_interpreter |
Sim |
OpenAI.RunStepDetailsToolCallsCodeObjectCodeInterpreter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| entrada | cadeia | Sim | ||
| Saídas | matriz de OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject ou OpenAI.RunStepDetailsToolCallsCodeOutputImageObject | Sim |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObject
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| imagem | OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage | Sim | ||
| tipo | enumeração | Sempre image.Valores possíveis: image |
Sim |
OpenAI.RunStepDetailsToolCallsCodeOutputImageObjectImage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_id | cadeia | Sim |
OpenAI.RunStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de Código como parte de uma etapa de execução.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| logs | cadeia | A saída de texto da chamada da ferramenta Interpretador de Código. | Sim | |
| tipo | enumeração | Sempre logs.Valores possíveis: logs |
Sim |
OpenAI.RunStepDetailsToolCallsFileSearchObject
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| File_search | OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch | Sim | ||
| └─ ranking_options | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | As opções de classificação para a pesquisa de arquivo. | Não | |
| └─ resultados | matriz de OpenAI.RunStepDetailsToolCallsFileSearchResultObject | Não | ||
| Id | cadeia | A ID do objeto de chamada de ferramenta. | Sim | |
| tipo | enumeração | O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta.Valores possíveis: file_search |
Sim |
OpenAI.RunStepDetailsToolCallsFileSearchObjectFileSearch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| ranking_options | OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject | As opções de classificação para a pesquisa de arquivo. | Não | |
| Resultados | matriz de OpenAI.RunStepDetailsToolCallsFileSearchResultObject | Não |
OpenAI.RunStepDetailsToolCallsFileSearchRankingOptionsObject
As opções de classificação para a pesquisa de arquivo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| classificador | OpenAI.FileSearchRanker | O classificador a ser usado para a pesquisa de arquivos. Se não for especificado, usará o auto classificador. |
Sim | |
| score_threshold | Número | O limite de pontuação para a pesquisa de arquivo. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Restrições: min: 0, max: 1 |
Sim |
OpenAI.RunStepDetailsToolCallsFileSearchResultObject
Uma instância de resultado da pesquisa de arquivo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | matriz de OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent | O conteúdo do resultado encontrado. O conteúdo só será incluído se solicitado por meio do parâmetro de consulta include. | Não | |
| File_id | cadeia | A ID do arquivo no qual o resultado foi encontrado. | Sim | |
| Nome_do_arquivo | cadeia | O nome do arquivo no qual o resultado foi encontrado. | Sim | |
| pontuação | Número | A pontuação do resultado. Todos os valores devem ser um número de ponto flutuante entre 0 e 1. Restrições: min: 0, max: 1 |
Sim |
OpenAI.RunStepDetailsToolCallsFileSearchResultObjectContent
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | Não | ||
| tipo | enumeração | Valores possíveis: text |
Não |
OpenAI.RunStepDetailsToolCallsFunctionObject
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.RunStepDetailsToolCallsFunctionObjectFunction | Sim | ||
| Argumentos └─ | cadeia | Sim | ||
| └─ nome | cadeia | Sim | ||
| └─ saída | cadeia de caracteres ou nulo | Sim | ||
| Id | cadeia | A ID do objeto de chamada de ferramenta. | Sim | |
| tipo | enumeração | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta.Valores possíveis: function |
Sim |
OpenAI.RunStepDetailsToolCallsFunctionObjectFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Sim | ||
| Nome | cadeia | Sim | ||
| saída | cadeia de caracteres ou nulo | Sim |
OpenAI.RunStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tool_calls | matriz de OpenAI.RunStepDetailsToolCall | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter, file_searchou function. |
Sim | |
| tipo | enumeração | Sempre tool_calls.Valores possíveis: tool_calls |
Sim |
OpenAI.RunStepObject
Representa uma etapa na execução de uma execução.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| assistant_id | cadeia | A ID do assistente associado à etapa de execução. | Sim | |
| cancelled_at | cadeia de caracteres ou nulo | Sim | ||
| completed_at | cadeia de caracteres ou nulo | Sim | ||
| created_at | inteiro | O carimbo de data/hora unix (em segundos) para quando a etapa de execução foi criada. | Sim | |
| expired_at | cadeia de caracteres ou nulo | Sim | ||
| failed_at | cadeia de caracteres ou nulo | Sim | ||
| Id | cadeia | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| last_error | OpenAI.RunStepObjectLastError ou nulo | Sim | ||
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| objeto | enumeração | O tipo de objeto, que é sempre thread.run.step.Valores possíveis: thread.run.step |
Sim | |
| run_id | cadeia | A ID da execução da qual essa etapa de execução faz parte. | Sim | |
| status | enumeração | O status da etapa de execução, que pode serin_progress, , cancelled, failedou completedexpired.Valores possíveis: in_progress, , cancelled, failed, completed, expired |
Sim | |
| step_details | OpenAI.RunStepDetailsMessageCreationObject ou OpenAI.RunStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Sim | |
| thread_id | cadeia | A ID do thread que foi executado. | Sim | |
| tipo | enumeração | O tipo de etapa de execução, que pode ser ou message_creationtool_calls.Valores possíveis: message_creation, tool_calls |
Sim | |
| uso | OpenAI.RunStepCompletionUsage | Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress. |
Sim |
OpenAI.RunStepObjectLastError
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | enumeração | Valores possíveis: server_error, rate_limit_exceeded |
Sim | |
| mensagem | cadeia | Sim |
OpenAI.RunToolCallObject
Objetos de chamada de ferramenta
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| função | OpenAI.RunToolCallObjectFunction | Sim | ||
| Argumentos └─ | cadeia | Sim | ||
| └─ nome | cadeia | Sim | ||
| Id | cadeia | A ID da chamada da ferramenta. Essa ID deve ser referenciada quando você envia as saídas da ferramenta usando as saídas da ferramenta Enviar para executar o ponto de extremidade. | Sim | |
| tipo | enumeração | O tipo de chamada de ferramenta para o qual a saída é necessária. Por enquanto, isso é sempre function.Valores possíveis: function |
Sim |
OpenAI.RunToolCallObjectFunction
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Argumentos | cadeia | Sim | ||
| Nome | cadeia | Sim |
OpenAI.Screenshot
Uma ação de captura de tela.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de captura de tela, essa propriedade é sempre definido como screenshot.Valores possíveis: screenshot |
Sim |
OpenAI.Scroll
Uma ação de rolagem.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| scroll_x | inteiro | A distância de rolagem horizontal. | Sim | |
| scroll_y | inteiro | A distância de rolagem vertical. | Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de rolagem, essa propriedade é sempre definido como scroll.Valores possíveis: scroll |
Sim | |
| X | inteiro | A coordenada x em que a rolagem ocorreu. | Sim | |
| Y | inteiro | A coordenada y em que a rolagem ocorreu. | Sim |
OpenAI.SearchContextSize
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | lowmediumhigh |
OpenAI.SpecificApplyPatchParam
Força o modelo a chamar a ferramenta apply_patch ao executar uma chamada de ferramenta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | A ferramenta a ser chamada. Sempre apply_patch.Valores possíveis: apply_patch |
Sim |
OpenAI.SpecificFunctionShellParam
Força o modelo a chamar a ferramenta de shell quando uma chamada de ferramenta é necessária.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | A ferramenta a ser chamada. Sempre shell.Valores possíveis: shell |
Sim |
OpenAI.StaticChunkingStrategy
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| chunk_overlap_tokens | inteiro | O número de tokens que se sobrepõem entre partes. O valor padrão é 400.Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens. |
Sim | |
| max_chunk_size_tokens | inteiro | O número máximo de tokens em cada parte. O valor padrão é 800. O valor mínimo é 100 e o valor máximo é 4096.Restrições: min: 100, máximo: 4096 |
Sim |
OpenAI.StaticChunkingStrategyRequestParam
Personalize sua própria estratégia de agrupamento definindo o tamanho da parte e a sobreposição de partes.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| estático | OpenAI.StaticChunkingStrategy | Sim | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Sim |
OpenAI.StaticChunkingStrategyResponseParam
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| estático | OpenAI.StaticChunkingStrategy | Sim | ||
| tipo | enumeração | Sempre static.Valores possíveis: static |
Sim |
OpenAI.StopConfiguration
Não há suporte para modelos o3 de raciocínio mais recentes e o4-mini.
Até quatro sequências em que a API deixará de gerar tokens adicionais. O texto retornado não conterá a sequência de interrupção.
Esse esquema aceita um dos seguintes tipos:
- Matriz
- Null
OpenAI.SubmitToolOutputsRunRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| fluxo | booliano ou nulo | Não | ||
| tool_outputs | matriz de OpenAI.SubmitToolOutputsRunRequestToolOutputs | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Sim |
OpenAI.SubmitToolOutputsRunRequestToolOutputs
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| saída | cadeia | Não | ||
| tool_call_id | cadeia | Não |
OpenAI.Summary
Um texto de resumo do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | Um resumo da saída de raciocínio do modelo até agora. | Sim | |
| tipo | enumeração | O tipo do objeto. Sempre summary_text.Valores possíveis: summary_text |
Sim |
OpenAI.SummaryTextContent
Um texto de resumo do modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | Um resumo da saída de raciocínio do modelo até agora. | Sim | |
| tipo | enumeração | O tipo do objeto. Sempre summary_text.Valores possíveis: summary_text |
Sim |
OpenAI.TextAnnotation
Discriminador para OpenAI.TextAnnotation
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
file_citation |
OpenAI.MessageContentTextAnnotationsFileCitationObject |
file_path |
OpenAI.MessageContentTextAnnotationsFilePathObject |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.TextAnnotationType | Sim |
OpenAI.TextAnnotationType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | file_citationfile_path |
OpenAI.TextContent
Um conteúdo de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | Sim | ||
| tipo | enumeração | Valores possíveis: text |
Sim |
OpenAI.TextResponseFormatConfiguration
Um objeto que especifica o formato que o modelo deve gerar.
A configuração { "type": "json_schema" } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido. Saiba mais no
O formato padrão não tem { "type": "text" } opções adicionais.
Não recomendado para gpt-4o e modelos mais recentes:* Configuração para { "type": "json_object" } habilitar o modo JSON mais antigo, o que garante que a mensagem gerada pelo modelo seja JSON válida. O uso json_schema é preferencial para modelos que dão suporte a ele.
Discriminador para OpenAI.TextResponseFormatConfiguration
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
json_schema |
OpenAI.TextResponseFormatJsonSchema |
text |
OpenAI.TextResponseFormatConfigurationResponseFormatText |
json_object |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.TextResponseFormatConfigurationType | Sim |
OpenAI.TextResponseFormatConfigurationResponseFormatJsonObject
Formato de resposta de objeto JSON. Um método mais antigo de geração de respostas JSON.
O uso json_schema é recomendado para modelos que dão suporte a ele. Observe que o modelo não gerará JSON sem um sistema ou mensagem de usuário instruindo-o a fazê-lo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_object.Valores possíveis: json_object |
Sim |
OpenAI.TextResponseFormatConfigurationResponseFormatText
Formato de resposta padrão. Usado para gerar respostas de texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre text.Valores possíveis: text |
Sim |
OpenAI.TextResponseFormatConfigurationType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | textjson_schemajson_object |
OpenAI.TextResponseFormatJsonSchema
Formato de resposta de esquema JSON. Usado para gerar respostas JSON estruturadas. Saiba mais sobre saídas estruturadas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Descrição | cadeia | Uma descrição do formato de resposta, usado pelo modelo para determine como responder no formato. |
Não | |
| Nome | cadeia | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
Sim | |
| esquema | OpenAI.ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. Saiba como criar esquemas JSON aqui. |
Sim | |
| Estrita | booliano ou nulo | Não | ||
| tipo | enumeração | O tipo de formato de resposta que está sendo definido. Sempre json_schema.Valores possíveis: json_schema |
Sim |
OpenAI.ThreadObject
Representa um thread que contém mensagens.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o thread foi criado. | Sim | |
| Id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| objeto | enumeração | O tipo de objeto, que é sempre thread.Valores possíveis: thread |
Sim | |
| tool_resources | OpenAI.ThreadObjectToolResources ou nulo | Sim |
OpenAI.ThreadObjectToolResources
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| code_interpreter | OpenAI.ThreadObjectToolResourcesCodeInterpreter | Não | ||
| File_search | OpenAI.ThreadObjectToolResourcesFileSearch | Não |
OpenAI.ThreadObjectToolResourcesCodeInterpreter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| file_ids | matriz de cadeia de caracteres | Não |
OpenAI.ThreadObjectToolResourcesFileSearch
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| vector_store_ids | matriz de cadeia de caracteres | Não |
OpenAI.TokenLimits
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| post_instructions | inteiro | Restrições: min: 0 | Não |
OpenAI.Tool
Uma ferramenta que pode ser usada para gerar uma resposta.
Discriminador para OpenAI.Tool
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
code_interpreter |
OpenAI.CodeInterpreterTool |
function |
OpenAI.FunctionTool |
file_search |
OpenAI.FileSearchTool |
computer_use_preview |
OpenAI.ComputerUsePreviewTool |
web_search |
OpenAI.WebSearchTool |
mcp |
OpenAI.MCPTool |
image_generation |
OpenAI.ImageGenTool |
local_shell |
OpenAI.LocalShellToolParam |
shell |
OpenAI.FunctionShellToolParam |
custom |
OpenAI.CustomToolParam |
web_search_preview |
OpenAI.WebSearchPreviewTool |
apply_patch |
OpenAI.ApplyPatchToolParam |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ToolType | Sim |
OpenAI.ToolChoiceAllowed
Restringe as ferramentas disponíveis para o modelo a um conjunto predefinido.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Modo | enumeração | Restringe as ferramentas disponíveis para o modelo a um conjunto predefinido.auto permite que o modelo escolha entre as ferramentas permitidas e gere umMensagem. required requer que o modelo chame uma ou mais das ferramentas permitidas.Valores possíveis: auto, required |
Sim | |
| Ferramentas | matriz de objeto | Uma lista de definições de ferramentas que o modelo deve ter permissão para chamar. Para a API de Respostas, a lista de definições de ferramentas pode ser semelhante a: json<br> [<br> { "type": "function", "name": "get_weather" },<br> { "type": "mcp", "server_label": "deepwiki" },<br> { "type": "image_generation" }<br> ]<br> |
Sim | |
| tipo | enumeração | Tipo de configuração de ferramenta permitido. Sempre allowed_tools.Valores possíveis: allowed_tools |
Sim |
OpenAI.ToolChoiceCodeInterpreter
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. Saiba mais sobre ferramentas internas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: code_interpreter |
Sim |
OpenAI.ToolChoiceComputerUsePreview
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. Saiba mais sobre ferramentas internas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: computer_use_preview |
Sim |
OpenAI.ToolChoiceCustom
Use essa opção para forçar o modelo a chamar uma ferramenta personalizada específica.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | O nome da ferramenta personalizada a ser chamada. | Sim | |
| tipo | enumeração | Para chamada de ferramenta personalizada, o tipo é sempre custom.Valores possíveis: custom |
Sim |
OpenAI.ToolChoiceFileSearch
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. Saiba mais sobre ferramentas internas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: file_search |
Sim |
OpenAI.ToolChoiceFunction
Use essa opção para forçar o modelo a chamar uma função específica.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia | O nome da função a ser chamada. | Sim | |
| tipo | enumeração | Para a chamada de função, o tipo é sempre function.Valores possíveis: function |
Sim |
OpenAI.ToolChoiceImageGeneration
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. Saiba mais sobre ferramentas internas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: image_generation |
Sim |
OpenAI.ToolChoiceMCP
Use essa opção para forçar o modelo a chamar uma ferramenta específica em um servidor MCP remoto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Nome | cadeia de caracteres ou nulo | Não | ||
| server_label | cadeia | O rótulo do servidor MCP a ser usado. | Sim | |
| tipo | enumeração | Para ferramentas MCP, o tipo é sempre mcp.Valores possíveis: mcp |
Sim |
OpenAI.ToolChoiceOptions
Controla qual ferramenta (se houver) é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas.
required significa que o modelo deve chamar uma ou mais ferramentas.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | noneautorequired |
OpenAI.ToolChoiceParam
Como o modelo deve selecionar qual ferramenta (ou ferramentas) usar ao gerar uma resposta. Consulte o tools parâmetro para ver como especificar quais ferramentas o modelo pode chamar.
Discriminador para OpenAI.ToolChoiceParam
Esse componente usa a propriedade type para discriminar entre diferentes tipos:
| Valor do tipo | Esquema |
|---|---|
allowed_tools |
OpenAI.ToolChoiceAllowed |
mcp |
OpenAI.ToolChoiceMCP |
custom |
OpenAI.ToolChoiceCustom |
apply_patch |
OpenAI.SpecificApplyPatchParam |
shell |
OpenAI.SpecificFunctionShellParam |
file_search |
OpenAI.ToolChoiceFileSearch |
web_search_preview |
OpenAI.ToolChoiceWebSearchPreview |
computer_use_preview |
OpenAI.ToolChoiceComputerUsePreview |
web_search_preview_2025_03_11 |
OpenAI.ToolChoiceWebSearchPreview20250311 |
image_generation |
OpenAI.ToolChoiceImageGeneration |
code_interpreter |
OpenAI.ToolChoiceCodeInterpreter |
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | OpenAI.ToolChoiceParamType | Sim |
OpenAI.ToolChoiceParamType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | allowed_toolsfunctionmcpcustomapply_patchshellfile_searchweb_search_previewcomputer_use_previewweb_search_preview_2025_03_11image_generationcode_interpreter |
OpenAI.ToolChoiceWebSearchPreview
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: web_search_preview |
Sim |
OpenAI.ToolChoiceWebSearchPreview20250311
Indica que o modelo deve usar uma ferramenta interna para gerar uma resposta. Saiba mais sobre ferramentas internas.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: web_search_preview_2025_03_11 |
Sim |
OpenAI.ToolType
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | functionfile_searchcomputer_use_previewweb_searchmcpcode_interpreterimage_generationlocal_shellshellcustomweb_search_previewapply_patch |
OpenAI.ToolsArray
Uma matriz de ferramentas que o modelo pode chamar ao gerar uma resposta. Você pode especificar qual ferramenta usar definindo o tool_choice parâmetro.
Damos suporte às seguintes categorias de ferramentas:
- Ferramentas internas: ferramentas fornecidas pelo OpenAI que estendem os recursos do modelo, como pesquisa na Web ou pesquisa de arquivos. Saiba mais sobre ferramentas internas.
- Ferramentas mcp: integrações com sistemas de terceiros por meio de servidores MCP personalizados ou conectores predefinidos, como Google Drive e SharePoint. Saiba mais sobre as Ferramentas do MCP.
- Chamadas de função (ferramentas personalizadas): Funções definidas por você, permitindo que o modelo chame seu próprio código com argumentos e saídas fortemente tipadas. Saiba mais sobre a chamada de função. Você também pode usar ferramentas personalizadas para chamar seu próprio código.
Matriz de: OpenAI.Tool
OpenAI.TopLogProb
A probabilidade de log superior de um token.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Bytes | matriz de inteiro | Sim | ||
| logprob | Número | Sim | ||
| símbolo | cadeia | Sim |
OpenAI.TranscriptionSegment
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| avg_logprob | Número | Logprob médio do segmento. Se o valor for menor que -1, considere que os logprobs falharam. | Sim | |
| compression_ratio | Número | Taxa de compactação do segmento. Se o valor for maior que 2,4, considere a compactação com falha. | Sim | |
| Final | Número | Hora de término do segmento em segundos. | Sim | |
| Id | inteiro | Identificador exclusivo do segmento. | Sim | |
| no_speech_prob | Número | Probabilidade de nenhuma fala no segmento. Se o valor for maior que 1,0 e estiver avg_logprob abaixo de -1, considere esse segmento silencioso. |
Sim | |
| Procurar | inteiro | Buscar deslocamento do segmento. | Sim | |
| Começar | Número | Hora de início do segmento em segundos. | Sim | |
| Temperatura | Número | Parâmetro de temperatura usado para gerar o segmento. | Sim | |
| enviar SMS | cadeia | Conteúdo de texto do segmento. | Sim | |
| Tokens | matriz de inteiro | Matriz de IDs de token para o conteúdo do texto. | Sim |
OpenAI.TranscriptionWord
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Final | Número | Hora de término da palavra em segundos. | Sim | |
| Começar | Número | Hora de início da palavra em segundos. | Sim | |
| palavra | cadeia | O conteúdo do texto da palavra. | Sim |
OpenAI.TruncationObject
Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| last_messages | inteiro ou nulo | Não | ||
| tipo | enumeração | A estratégia de truncamento a ser usada para o thread. O padrão é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo max_prompt_tokens.Valores possíveis: auto, last_messages |
Sim |
OpenAI.Type
Uma ação para digitar texto.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | O texto a ser digitado. | Sim | |
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de tipo, essa propriedade é sempre definido como type.Valores possíveis: type |
Sim |
OpenAI.UpdateConversationBody
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| metadados | OpenAI.Metadata ou nulo | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres. |
Sim |
OpenAI.UpdateVectorStoreFileAttributesRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Sim |
OpenAI.UpdateVectorStoreRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
| metadados | OpenAI.Metadata ou nulo | Não | ||
| Nome | cadeia de caracteres ou nulo | O nome do repositório de vetores. | Não |
OpenAI.UrlCitationBody
Uma citação para um recurso da Web usado para gerar uma resposta de modelo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| end_index | inteiro | O índice do último caractere da citação de URL na mensagem. | Sim | |
| start_index | inteiro | O índice do primeiro caractere da citação de URL na mensagem. | Sim | |
| Título | cadeia | O título do recurso da Web. | Sim | |
| tipo | enumeração | O tipo da citação de URL. Sempre url_citation.Valores possíveis: url_citation |
Sim | |
| Url | cadeia | A URL do recurso da Web. | Sim |
OpenAI.ValidateGraderResponse
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Série | OpenAI.GraderStringCheck ou OpenAI.GraderTextSimilarity ou OpenAI.GraderPython ou OpenAI.GraderScoreModel ou OpenAI.GraderMulti ou GraderEndpoint | O classificador usado para o trabalho de ajuste fino. | Não |
OpenAI.VectorStoreExpirationAfter
A política de expiração de um repositório de vetores.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| âncora | enumeração | Carimbo de data/hora de âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at.Valores possíveis: last_active_at |
Sim | |
| Dias | inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. Restrições: min: 1, máximo: 365 |
Sim |
OpenAI.VectorStoreFileAttributes
Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado e consultar objetos por meio da API ou do painel. As chaves são cadeias de caracteres com um comprimento máximo de 64 caracteres. Os valores são cadeias de caracteres com um comprimento máximo de 512 caracteres, boolianos ou números.
Tipo: objeto
OpenAI.VectorStoreFileBatchObject
Um lote de arquivos anexados a um repositório de vetores.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos do repositório de vetores foi criado. | Sim | |
| file_counts | OpenAI.VectorStoreFileBatchObjectFileCounts | Sim | ||
| Id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file_batch.Valores possíveis: vector_store.files_batch |
Sim | |
| status | enumeração | O status do lote de arquivos do repositório de vetores, que pode ser in_progress, completedcancelled ou failed.Valores possíveis: in_progress, , completed, cancelledfailed |
Sim | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o Arquivo está anexado. | Sim |
OpenAI.VectorStoreFileBatchObjectFileCounts
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Cancelado | inteiro | Sim | ||
| Concluído | inteiro | Sim | ||
| Falhou | inteiro | Sim | ||
| in_progress | inteiro | Sim | ||
| Total | inteiro | Sim |
OpenAI.VectorStoreFileObject
Uma lista de arquivos anexados a um repositório de vetores.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Não | ||
| chunking_strategy | OpenAI.ChunkingStrategyResponse | A estratégia usada para dividir o arquivo. | Não | |
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o arquivo de repositório de vetores foi criado. | Sim | |
| Id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| last_error | OpenAI.VectorStoreFileObjectLastError ou null | Sim | ||
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.file.Valores possíveis: vector_store.file |
Sim | |
| status | enumeração | O status do arquivo de repositório de vetores, que pode ser in_progress, , completedou cancelledfailed. O status completed indica que o arquivo de repositório de vetores está pronto para uso.Valores possíveis: in_progress, , completed, cancelledfailed |
Sim | |
| usage_bytes | inteiro | O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Sim | |
| vector_store_id | cadeia | A ID do repositório de vetores ao qual o Arquivo está anexado. | Sim |
OpenAI.VectorStoreFileObjectLastError
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| codificar | enumeração | Valores possíveis: server_error, , unsupported_fileinvalid_file |
Sim | |
| mensagem | cadeia | Sim |
OpenAI.VectorStoreObject
Um repositório de vetores é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| created_at | inteiro | O carimbo de data/hora Unix (em segundos) para quando o repositório de vetores foi criado. | Sim | |
| expires_after | OpenAI.VectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
| expires_at | cadeia de caracteres ou nulo | Não | ||
| file_counts | OpenAI.VectorStoreObjectFileCounts | Sim | ||
| Id | cadeia | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
| last_active_at | cadeia de caracteres ou nulo | Sim | ||
| metadados | OpenAI.Metadata ou nulo | Sim | ||
| Nome | cadeia | O nome do repositório de vetores. | Sim | |
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.Valores possíveis: vector_store |
Sim | |
| status | enumeração | O status do repositório de vetores, que pode ser expired, in_progressou completed. Um status indica completed que o repositório de vetores está pronto para uso.Valores possíveis: expired, , in_progresscompleted |
Sim | |
| usage_bytes | inteiro | O número total de bytes usados pelos arquivos no repositório de vetores. | Sim |
OpenAI.VectorStoreObjectFileCounts
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Cancelado | inteiro | Sim | ||
| Concluído | inteiro | Sim | ||
| Falhou | inteiro | Sim | ||
| in_progress | inteiro | Sim | ||
| Total | inteiro | Sim |
OpenAI.VectorStoreSearchRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtros | OpenAI.ComparisonFilter ou OpenAI.CompoundFilter | Um filtro a ser aplicado com base em atributos de arquivo. | Não | |
| max_num_results | inteiro | O número máximo de resultados a serem retornados. Esse número deve estar entre 1 e 50, inclusive. Restrições: min: 1, máximo: 50 |
Não | 10 |
| consulta | cadeia de caracteres ou matriz de cadeia de caracteres | Uma cadeia de caracteres de consulta para uma pesquisa | Sim | |
| ranking_options | OpenAI.VectorStoreSearchRequestRankingOptions | Não | ||
| └─ ranker | enumeração | Valores possíveis: none, , autodefault-2024-11-15 |
Não | |
| └─ limite_de_pontuação | Número | Restrições: min: 0, max: 1 | Não | |
| rewrite_query | Boolean | Se deseja reescrever a consulta de linguagem natural para pesquisa de vetor. | Não |
OpenAI.VectorStoreSearchRequestRankingOptions
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| classificador | enumeração | Valores possíveis: none, , autodefault-2024-11-15 |
Não | |
| score_threshold | Número | Restrições: min: 0, max: 1 | Não |
OpenAI.VectorStoreSearchResultContentObject
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| enviar SMS | cadeia | O conteúdo do texto retornado da pesquisa. | Sim | |
| tipo | enumeração | O tipo de conteúdo. Valores possíveis: text |
Sim |
OpenAI.VectorStoreSearchResultItem
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Atributos | OpenAI.VectorStoreFileAttributes ou nulo | Sim | ||
| conteúdo | matriz de OpenAI.VectorStoreSearchResultContentObject | Partes de conteúdo do arquivo. | Sim | |
| File_id | cadeia | A ID do arquivo do repositório de vetores. | Sim | |
| Filename | cadeia | O nome do arquivo de repositório de vetores. | Sim | |
| pontuação | Número | A pontuação de similaridade para o resultado. Restrições: min: 0, max: 1 |
Sim |
OpenAI.VectorStoreSearchResultsPage
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de OpenAI.VectorStoreSearchResultItem | A lista de itens de resultado da pesquisa. | Sim | |
| has_more | Boolean | Indica se há mais resultados a serem buscados. | Sim | |
| next_page | cadeia de caracteres ou nulo | Sim | ||
| objeto | enumeração | O tipo de objeto, que é sempre vector_store.search_results.pageValores possíveis: vector_store.search_results.page |
Sim | |
| search_query | matriz de cadeia de caracteres | Sim |
OpenAI.Verbosity
Restringe a verbosidade da resposta do modelo. Valores mais baixos resultarão em respostas mais concisas, enquanto valores mais altos resultarão em respostas mais detalhadas.
Os valores com suporte no momento são low, mediume high.
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | lowmediumhigh |
OpenAI.VoiceIdsShared
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | alloyashballadcoralechosageshimmerversemarincedar |
OpenAI.Wait
Uma ação de espera.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Especifica o tipo de evento. Para uma ação de espera, essa propriedade é sempre definido como wait.Valores possíveis: wait |
Sim |
OpenAI.WebSearchActionFind
Tipo de ação "localizar": pesquisa um padrão em uma página carregada.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| padrão | cadeia | O padrão ou texto a ser pesquisado dentro da página. | Sim | |
| tipo | enumeração | O tipo de ação. Valores possíveis: find_in_page |
Sim | |
| Url | cadeia | A URL da página pesquisou o padrão. | Sim |
OpenAI.WebSearchActionOpenPage
Tipo de ação "open_page" – abre uma URL específica dos resultados da pesquisa.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | O tipo de ação. Valores possíveis: open_page |
Sim | |
| Url | cadeia | A URL aberta pelo modelo. | Sim |
OpenAI.WebSearchActionSearch
Tipo de ação "pesquisa" – executa uma consulta de pesquisa na Web.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Consultas | matriz de cadeia de caracteres | As consultas de pesquisa. | Não | |
| consulta | cadeia de caracteres (preterida) | [PRETERIDO] A consulta de pesquisa. | Sim | |
| Fontes | matriz de OpenAI.WebSearchActionSearchSources | As fontes usadas na pesquisa. | Não | |
| tipo | enumeração | O tipo de ação. Valores possíveis: search |
Sim |
OpenAI.WebSearchActionSearchSources
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| tipo | enumeração | Valores possíveis: url |
Sim | |
| Url | cadeia | Sim |
OpenAI.WebSearchApproximateLocation
O local aproximado do usuário.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Cidade | cadeia de caracteres ou nulo | Não | ||
| País | cadeia de caracteres ou nulo | Não | ||
| região | cadeia de caracteres ou nulo | Não | ||
| Timezone | cadeia de caracteres ou nulo | Não | ||
| tipo | enumeração | O tipo de aproximação de local. Sempre approximate.Valores possíveis: approximate |
Não |
OpenAI.WebSearchPreviewTool
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| search_context_size | OpenAI.SearchContextSize | Não | ||
| tipo | enumeração | O tipo da ferramenta de pesquisa na Web. Um de web_search_preview ou web_search_preview_2025_03_11.Valores possíveis: web_search_preview |
Sim | |
| user_location | OpenAI.ApproximateLocation ou nulo | Não |
OpenAI.WebSearchTool
Observação: web_search ainda não está disponível por meio do Azure OpenAI.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Filtros | OpenAI.WebSearchToolFilters ou nulo | Não | ||
| search_context_size | enumeração | Diretrizes de alto nível para a quantidade de espaço de janela de contexto a ser usada para a pesquisa. Um de low, mediumou high.
medium é o padrão.Valores possíveis: low, , mediumhigh |
Não | |
| tipo | enumeração | O tipo da ferramenta de pesquisa na Web. Um de web_search ou web_search_2025_08_26.Valores possíveis: web_search |
Sim | |
| user_location | OpenAI.WebSearchApproximateLocation ou null | Não |
OpenAI.WebSearchToolFilters
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| allowed_domains | matriz de cadeia de caracteres ou nulo | Não |
Ordem
| Propriedade | Valor |
|---|---|
| Tipo | cadeia |
| Valores | ascdesc |
ResponseFormatJSONSchemaRequest
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| json_schema | objeto | Esquema JSON para o formato de resposta | Sim | |
| tipo | enumeração | Tipo de formato de resposta Valores possíveis: json_schema |
Sim |
SpeechGenerationResponse
Uma representação de uma resposta para uma operação de conversão de texto em fala.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| Áudio | cadeia | O áudio gerado, gerado no formato de saída de áudio solicitado. | Sim |
SpeechGenerationResponseFormat
Os formatos de saída de áudio com suporte para conversão de texto em fala.
Esse componente pode ser um dos seguintes:
- String
-
cadeia de caracteres:
mp3,opus,aac, ,flac,wavpcm
SpeechVoice
As vozes disponíveis para conversão de texto em fala.
| Propriedade | Valor |
|---|---|
| Descrição | As vozes disponíveis para conversão de texto em fala. |
| Tipo | cadeia |
| Valores | alloyechofableonyxnovashimmer |
VideoContent
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| conteúdo | cadeia | Sim |
VideoContentVariant
Variantes de ativo selecionáveis para conteúdo baixado.
| Propriedade | Valor |
|---|---|
| Descrição | Variantes de ativo selecionáveis para conteúdo baixado. |
| Tipo | cadeia |
| Valores | videothumbnailspritesheet |
VideoIdParameter
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| id de vídeo | cadeia | A ID do vídeo a ser usada para a solicitação do Azure OpenAI. | Sim |
VideoList
Uma lista de trabalhos de geração de vídeo.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| dados | matriz de VideoResource | A lista de trabalhos de geração de vídeo. | Sim | |
| first_id | cadeia | A ID do primeiro vídeo na página atual, se disponível. | Não | |
| has_more | Boolean | Um sinalizador que indica se há mais trabalhos disponíveis após a lista. | Sim | |
| last_id | cadeia | A ID do último vídeo na página atual, se disponível. | Não | |
| objeto | enumeração | Valores possíveis: list |
Sim |
VideoResource
Informações estruturadas que descrevem um trabalho de vídeo gerado.
| Nome | Tipo | Descrição | Necessário | Padrão |
|---|---|---|---|---|
| completed_at | inteiro | Unix timestamp (segundos) para quando o trabalho foi concluído, se concluído. | Não | |
| created_at | inteiro | Unix timestamp (segundos) para quando o trabalho foi criado. | Sim | |
| erro | Erro | Não | ||
| └─ código | cadeia | Sim | ||
| Mensagem └─ | cadeia | Sim | ||
| expires_at | inteiro | Unix timestamp (segundos) para quando a geração de vídeo expira (e será excluída). | Não | |
| Id | cadeia | Identificador exclusivo para o trabalho de vídeo. | Sim | |
| modelo | cadeia | A implantação do modelo de geração de vídeo que produziu o trabalho. | Sim | |
| objeto | cadeia | O tipo de objeto, que é sempre video. |
Sim | |
| Progresso | inteiro | Porcentagem aproximada de conclusão para a tarefa de geração. | Sim | |
| remixed_from_video_id | cadeia | Identificador do vídeo de origem se este vídeo for um remix. | Não | |
| Segundos | VideoSeconds | Durações de clipe com suporte, medidas em segundos. | Sim | |
| Tamanho | VideoSize | Dimensões de saída formatadas como {width}x{height}. |
Sim | |
| status | VideoStatus | Estado do ciclo de vida de um vídeo gerado. | Sim |
VideoSeconds
Durações de clipe com suporte, medidas em segundos.
| Propriedade | Valor |
|---|---|
| Descrição | Durações de clipe com suporte, medidas em segundos. |
| Tipo | cadeia |
| Valores | 4812 |
VideoSize
Dimensões de saída formatadas como {width}x{height}.
| Propriedade | Valor |
|---|---|
| Descrição | Dimensões de saída formatadas como {width}x{height}. |
| Tipo | cadeia |
| Valores | 720x12801280x7201024x17921792x1024 |
VideoStatus
Estado do ciclo de vida de um vídeo gerado.
| Propriedade | Valor |
|---|---|
| Descrição | Estado do ciclo de vida de um vídeo gerado. |
| Tipo | cadeia |
| Valores | queuedin_progresscompletedfailed |